Como já mostramos, o funcionamento dos carros-robôs ou carros autônomos – aqueles que serão capazes de se dirigirem sozinhos e estão chegando ao mercado em pouquíssimo tempo (veja nossa reportagem especial sobre o assunto) – envolve uma série de sensores, radares e mecanismos complexos (leia aqui mais sobre eles). Mas, muito além dessas questões de hardware, há a questão da interação com os humanos e sua imperfeição (leia aqui). E, indo além, há a questão dos softwares que vão comandar esse carros – que terão, eventualmente, que decidir entre preservar sua vida ou te matar.

Sonho ou realidade?
Os protótipos autônomos da Google, baseados no Prius, rodaram milhões de quilômetros sem matar ninguém. Foi testado principalmente em locais remotos e com voa sinalização e organização do tráfico. Mas colocando esses tais carros-robôs dentro das cidades em cenários menos favoráveis e mais imprevisíveis, o que acontecerá?

Isso porque os cálculos envolvidos no funcionamento do carro-robô e em suas decisões são extremamente complexos, comandados por algorítimos – fórmulas complexas que ajudam o carro a analisar constantemente todas as variáveis envolvidas na sua condução e a tomar suas “decisões”, seja em situações normais ou críticas.

Agora imagine a seguinte situação: seu carro autônomo está te levando a algum lugar, você ali tranquilo cuidando de suas tarefas, lendo algo, trabalhando ou então descansando, despreocupado, desligado do volante…De repente, um grupo de crianças entra na frente do carro. Não há tempo hábil para parar. De um lado há um precipício; do outro uma calçada com pedestres. O que o carro deve ser programado fazer?

Em um cenário de “mal menor”, o certo seria o carro ser programado para te jogar no precipício e salvar a vida tanto das crianças quanto dos pedestres? Você estaria disposto a morrer para salvar outras vidas? Mesmo? E o que você faria se estivesse ao volante? Será que seu instinto de autopreservação não falaria mais alto e tentaria uma quarta opção – que talvez acabasse malsucedida, matando outras pessoas? Claro que numa situação como essas vocÊ mal teria tempo de pensar, e nem saberia dizer o que faria. O carro, porém, com seus algorítimos e supercomputadores, teria tempo “de sobra” para calcular todas as possibilidades e tomar a decisão correta. E, voltando um pouco, qual seria ela mesmo?

E mais: a quem caberia decidir como o carro seria programado? Um carro poderia ser mais egoísta ou altruísta, dependendo da ética de seu dono? Ou as marcas teriam que programar todos os seus carros de acordo com regulamentações locais? Cada país teria sua própria política para isso? Você aceitaria se submeter às decisões de seu carro, mesmo que ele decidisse que, em dada situação, sua vida pode valer menos que as outras? Sem dúvida são questões bastante complexas, que ainda serão bastante discutidas.

Divulgação
No teste com um Audi A7 autônomo nos EUA, o motorista acompanhava as decisões do carro-robô. Mas  objetivo é que as pessoas passem a ficar de fato livres, e não precisem “vigiar” o carro. Aí vão deixar suas vidas nas “mãos” dele…