Jason Henry/The New York Times
Jason Henry/The New York Times
Imagem Fernando Reinach
Colunista
Fernando Reinach
Conteúdo Exclusivo para Assinante

O dilema moral dos carros autônomos

Decisões serão tomadas pelo computador que dirige o veículo, não por pessoas

Fernando Reianch, colunista

27 Outubro 2018 | 02h00

É raro, mas todo motorista pode ser forçado a tomar decisões morais. Exemplo: uma criança corre na frente do seu carro, você a atropela ou desvia o veículo e atropela a mãe, apavorada, que vem correndo logo atrás? É difícil decidir. Outras vezes é fácil. Se o que aparece na sua frente é um cãozinho, você atropela o cachorro ou desvia o carro e atropela a criança que vem atrás do animal de estimação? Atualmente, essas decisões são deixadas a cargo do motorista. Os cenários são tão variados e as ocorrências dessas emergências são tão raras que as autoescolas não abordam essa questão e o código de trânsito não sugere qual a melhor solução. Qualquer que seja a decisão do motorista, a culpa vai ser decidida na Justiça.

Mas com a chegada dos carros autônomos isso vai mudar. Não haverá uma pessoa no volante para tomar a decisão, ela vai ser tomada pelo computador que dirige o carro. E computadores não fazem julgamentos morais, eles simplesmente seguem o programa instalado em sua memória. Se forem programados para priorizar crianças sobre adultos, vão desviar o carro da criança e atropelar a mãe. Nos últimos anos, os engenheiros envolvidos na construção desses carros têm coçado a cabeça tentando decidir como programar os carros. O problema é que os cenários possíveis são muitos e não sabemos como as pessoas se comportam, ou acham que deveriam se comportar. 

Agora a ciência veio ajudar. Foi publicado um estudo em que 40 milhões de pessoas, de 233 países, foram defrontadas com os mais diferentes dilemas morais enfrentados pelos motoristas. A boa notícia é que todos os seres humanos concordam com três regras gerais. A má notícia é que foram detectadas diferenças entre pessoas educadas em diferentes países.

Os cientistas criaram um website interativo em que problemas morais eram apresentados aos internautas, que, por sua vez, deveriam selecionar entre duas possibilidades (por exemplo, atropelar a criança ou a mãe). As variáveis usadas nos diferentes problemas incluíam: pessoa x animal, adulto x crianças, pobre x rico, número de pessoas envolvidas, sexo da vítima, se a pessoa estava atravessando na faixa legalmente ou não, e assim por diante. Dada a grande quantidade de possíveis problemas, o número de respostas que necessitam ser coletadas para obter resultados significativos é enorme. Até agora, mais de 40 milhões de pessoas já usaram o site moralmachine.mit.edu - eu fui um deles, e você também pode dar sua contribuição, pois o experimento ainda está em andamento.

A análise dos dados obtidos até agora mostrou que a maioria da população segue três princípios quando faz seu julgamento moral: dão alta preferência a salvar pessoas sobre animais, dão alta preferência a salvar um número maior de vidas e também preferem salvar pessoas jovens às idosas. Muitas outras preferências também apareceram, mas nesse caso a preferência é relativamente baixa: elas preferem deixar o carro seguir sua rota original a agir, preferem salvar pedestres a salvar os passageiros do carro, preferem salvar pessoas magras a gordas, preferem salvar pessoas de status social mais alto e preferem salvar pessoas que estão agindo legalmente (por exemplo, atravessando na faixa). Muitas dessas preferências são exatamente o que esperaríamos, mas outras são totalmente inesperadas.

O mais interessante é que as preferências de populações distintas não são as mesmas. Simplificando, as diferenças podem ser colocadas em três grupos de países, o Oeste (Europa, América do Norte, Austrália e Brasil), o Leste (Oriente Médio, Índia, China e Japão) e o que eles denominaram Sul (América Hispânica, Norte da África e Mongólia). No Oeste foi detectada uma preferência por não agir, deixando o carro seguir em frente quando aparece o dilema. No Leste, as crianças perdem dos adultos. Já no Sul, ocorre o oposto: criança tem preferência, com mulheres e pessoas de alto status (preferem salvar um homem de terno a um mal vestido). A diferença entre países é mais complexa e sutil, e uma explicação detalhada não cabe aqui. Mas o importante é que a decisão moral varia um pouco de uma cultura para outra.

O fato de existir um consenso na população mundial indica um caminho possível para os engenheiros que vão programar os carros, mas as diferenças regionais preocupam. Será que um carro que viaja do Brasil para a Argentina deve mudar sua programação moral quando atravessa a fronteira? É provável que os carros autônomos de diferentes fornecedores respondam aos dilemas morais de forma diferente, da mesma forma que pessoas distintas tomam decisões morais diferentes. Dá para imaginar o problema que isso criaria para os juízes. Muita água ainda vai rolar.

MAIS INFORMAÇÃO: THE MORAL MACHINE EXPERIMENT. NATURE HTTPS://DOI.ORG/10.1038/S41586-018-0637-6 2018

*FERNANDO REIANCH É BIÓLOGO

Mais conteúdo sobre:
carro autônomo

Encontrou algum erro? Entre em contato

O Estadão deixou de dar suporte ao Internet Explorer 9 ou anterior. Clique aqui e saiba mais.