Carros que tomam decisões morais

Cientistas têm o poder (e o dever) de programar o veículo para tomar a melhor decisão

Fernando Reinach, O Estado de S.Paulo

31 Março 2018 | 03h00

Carros sem motoristas vão estar entre nós nos próximos anos. Eles estão sendo testados exaustivamente e os resultados são animadores. Os testes funcionam assim: o carro fica se deslocando pela cidade utilizando os sistemas de câmeras, radares e computadores para se orientar, mas o tempo todo tem uma pessoa que fica sentada na direção para retomar o controle caso algo de errado aconteça.

A frota de teste da empresa que tem os melhores resultados é composta por centenas de carros que já percorreram quase 2 milhões de quilômetros. A prova de que o sistema funciona é que a pessoa sentada no volante só teve que intervir, em média, uma vez a cada 7 mil quilômetros rodados. Ou seja, os melhores carros autônomos estão circulando sem problemas, enfrentando sozinhos os desafios de dirigir nas cidades e estradas. Esses números vão melhorar e nos próximos anos os testes vão continuar sem motorista.

Os cientistas acreditam que esses carros serão muito mais seguros pois mais de 90% dos acidentes serão evitados. A razão é simples: os computadores desses carros não dirigem embriagados, respeitam rigorosamente todas as regras de trânsito, não dormem no volante, não usam o celular enquanto dirigem e nunca se distraem. São esses comportamentos que causam a maior parte dos acidentes. É claro que computadores pifam, assim como motoristas enfartam no volante, portanto o risco não será nunca zero. Numa primeira etapa, esses carros autônomos estarão convivendo com carros dirigidos por pessoas alcoolizadas ou irresponsáveis, mas depois só encontrarão outros carros autônomos, e aí os acidentes serão ainda mais raros.

Mas, como não podia deixar de acontecer, na semana passada um desses carros de teste atropelou e matou uma ciclista. As câmeras mostraram que ela quase pulou na frente do carro, o veículo não reagiu a tempo, e nesse exato momento o motorista estava distraído. O carro é de uma empresa que não tem um dos melhores sistemas, mas o fato é que a pessoa morreu. Acidentes como esses vão acontecer, e em muitos casos os carros terão de tomar decisões que põem em risco ou sacrificam vidas humanas. 

Imagine um carro autônomo com três passageiros dirigindo numa estrada estreita ladeada por um barranco e um precipício. Uma pessoa se atira na frente do veículo, e o computador percebe que é impossível frear a tempo. O que ele deve ser programado para fazer nesse caso? Deve jogar o carro no precipício, salvando o pedestre e talvez matando os três passageiros, ou deve atropelar e talvez matar o pedestre, salvando os três passageiros?

Uma conta simples sugere que ele deve atropelar, pois mata uma pessoa, mas salva três. E se houver somente uma pessoa no carro, qual pessoa o computador deve preferir salvar, o pedestre ou o dono do carro? Decisões como essas são tomadas todos os dias por centenas de motoristas e pouco podemos fazer para influenciar como cada um de nós vai agir se confrontado com uma situação desse tipo. Mas os cientistas que programam os computadores têm o poder (e o dever) de programar o carro para tomar a melhor decisão. E qual é ela? Esse é um problema moral, e a resposta a esse dilema vai ter de estar programada nos computadores dos carros autônomos. É com problemas dessa natureza que os cientistas têm se deparado nos últimos anos. Afinal, a decisão de quem vai morrer num caso desses será tomada por um computador que foi programado por um ser humano, que, por sua vez, é um empregado da companhia responsável pela construção do carro.

Estudos que demonstram como as pessoas se comportam em situações desse tipo são fáceis de fazer e existem em abundância. Uma solução possível para esse dilema seria simplesmente programar os computadores para decidir da mesma forma que as pessoas decidem quando confrontadas com essas situações. Acontece que esses estudos demonstraram que as pessoas muitas vezes não tomam a decisão que muitos julgam a mais correta. Por exemplo: nosso instinto de sobrevivência muitas vezes faz com que valorizemos mais a própria vida que a vida de outras pessoas. Um carro programado dessa maneira não hesitaria em matar duas pessoas para salvar a pessoa no seu interior. E tem mais, a decisão deveria ser diferente se as pessoas estão atravessando na faixa ou em um local não permitido?

O interessante é que até hoje esses dilemas morais eram preocupações de filósofos e psicólogos experimentais, e as descobertas nesse campo tinham pouca influência na vida cotidiana das pessoas. Mas, agora, para liberar carros autônomos e, assim, salvar muitas vidas, vamos ter de decidir que solução vamos implementar nos programas de computador que colocaremos nos carros autônomos. Já dá para imaginar uma montadora de carros com um departamento cheio de especialista em ética e moral. O vestibular para Filosofia vai ficar mais concorrido.

MAIS INFORMAÇÕES: USING VIRTUAL REALITY TO ASSESS ETHICAL DECISIONS IN ROAD TRAFFIC SCENARIOS: APPLICABILITY OF VALUE-OF-LIFE-BASED MODELS AND INFLUENCES OF TIME PRESSURE. FRONT. BEHAV. NEUROSCI. VOL. 11 PAG. 122 2017.

*FERNANDO REINACH É BIÓLOGO

Mais conteúdo sobre:
ciência

Encontrou algum erro? Entre em contato

O Estadão deixou de dar suporte ao Internet Explorer 9 ou anterior. Clique aqui e saiba mais.