Pelo título do e-mail, você pode até pensar que este assunto não tem nada a ver com TI, mas tem tudo a ver. Cada vez mais precisaremos lidar com este tipo de assunto a medida que cresce a IA .
Re: Why Self-Driving Cars Must Be Programmed to Kill | MIT Technology Review
http://www.technologyreview.com/view/542626/why-self-driving-cars-must-be-programmed-to-kill/
Um trem vai atingir 5 pessoas que trabalham desprevenidas sobre a linha. Mas você tem a chance de evitar a tragédia acionando uma alavanca que leva o trem para outra linha, onde ele atingirá apenas uma pessoa. Você mudaria o trajeto, salvando as 5 e matando 1?
( ) Mudaria
( ) Não mudaria
Esse dilema moral foi apresentado a voluntários pelo filósofo e psicólogo evolutivo Joshua Greene, da Universidade Harvard. “É aceitável mudar o trem e salvar 5 pessoas ao custo de uma? A maioria das pessoas diz que sim”, afirma Greene em um de seus artigos. De fato, numa pesquisa feita pela revista Time, 97% dos leitores salvariam os 5. Fazer isso significa agir conforme o utilitarismo – a doutrina criada pelo filósofo inglês John Stuart Mill, no século 19. Para ele, a moral está na consequência: a atitude mais correta é a que resulta na maior felicidade para o máximo de pessoas. Mas há um problema. A ética de escolher o mal menor tem um lado perigoso – basta multiplicá-la por 1 milhão. Você mataria 1 milhão de pessoas para salvar 5 milhões? Uma decisão assim sustentou regimes totalitários do século 20 que desgraçaram, em nome da maioria, uma minoria tão inocente quanto o homem sozinho no trilho. Além disso, o ato de matar 1 para salvar 5 é o oposto do espírito dos direitos humanos, segundo o qual cada vida tem um valor inestimável em si – e não nos cabe usar valores racionais ao lidar com esse tema.
Imagine a mesma situação anterior: um trem em disparada irá atingir 5 trabalhadores desprevenidos nos trilhos. Agora, porém, há uma linha só. O trem pode ser parado por algum objeto pesado jogado em sua frente. Um homem com uma mochila muito grande está ao lado da ferrovia. Se você empurrá-lo para a linha, o trem vai parar, salvando as 5 pessoas, mas liquidando uma. Você empurraria o homem da mochila para a linha?
( ) Empurraria
( ) Não empurraria
Avaliando pela lógica pura, esse dilema não tem diferença em relação ao anterior. Continua sendo uma questão de trocar 1 indivíduo por 5. Apesar disso, a maioria das pessoas (75% nos estudos de Joshua Greene, 60% no teste da Time) não empurraria o homem. A equipe de Greene descobriu que, enquanto usamos áreas cerebrais relacionadas à “alta cognição”, isto é, ao pensamento profundo, para resolver o dilema anterior, este aqui provoca reações emocionais, mesmo nos que empurrariam o homem para os trilhos. Uma versão mais bizarra desse dilema propõe uma catapulta para jogar o homem pesado nos trilhos – e, surpresa, a maioria das pessoas volta a querer matar 1 para salvar 5. Conclusão: estamos dispostos a matar com máquinas, mas não mataríamos com as mãos.
Para Greene, a diferença nas respostas aos dois dilemas pode ser explicada pela seleção natural. Durante milhares de anos da nossa evolução, os seres humanos que matavam outros friamente atraíam violência para si próprios: eram logo mortos pelo grupo, gerando menos descendentes. Já aqueles que conseguiam se segurar conquistavam amigos e proteção, transmitindo seus genes para o futuro. Assim, ao longo dos milênios, criamos instintos sociais que nos refreiam na hora de matar alguém.--
---
Você recebeu essa mensagem porque está inscrito no grupo "UniCarioca Dev" dos Grupos do Google.
Para cancelar inscrição nesse grupo e parar de receber e-mails dele, envie um e-mail para unicarioca-de...@googlegroups.com.
Para mais opções, acesse https://groups.google.com/d/optout.