Futuro sem motorista
A narrativa de que carros autônomos vão substituir motoristas em poucos anos virou bordão em discursos de inovação. Empresas como a Uber tratam esse horizonte como inevitável e usam-no como vitrine tecnológica. Mas, no fundo, o que sabemos dessa promessa?
Como ficam as questões legais e regulatórias? Quais são as garantias? E, principalmente, como os algoritmos serão otimizados para situações complexas?
No amoso dilema do bonde, formulado originalmente por Philippa Foot e depois popularizado por Judith Jarvis Thomson a situação clássica é: um vagão de bonde desgovernado vai atropelar cinco pessoas. Você pode puxar uma alavanca e desviá-lo, mas isso fará com que ele mate apenas uma pessoa em outro trilho. O dilema serve para explorar questões sobre utilitarismo, dever moral e responsabilidade, mas é extremamente relevante nas discussões sobre automação.
De 2016 a 2018 o MIT, renomada universidade de Massachusetts - EUA, produziu uma pesquisa chamada Moral Machine Project (Projeto Moralidade da Máquina, numa tradução livre), conduzida pelo cientista e professor Iyad Rahwan, com o objetivo de entender perspectivas e julgamentos humanos para buscar como isso poderia (ou deveria) impactar a ética e moralidade na programação de carros autônomos.
Os pesquisadores pediram que as pessoas escolhessem, num cenário de acidente inevitável, quem o carro deveria "salvar". O estudo coletou dados de 40 milhões de cenários e entrevistou pessoas em mais de 230 países, se consagrando como a mais profunda e ampla análise já feita sobre o tema, chegando a resultados muito interessantes.
Por exemplo, houve preferência por salvar mulheres do que homens. Humanos do que animais. Mas as coisas ficaram curiosas quando a equação era incrementada com fatores sociais, culturais e econômicos. Nos EUA e Europa, houve uma clara tendência de que pessoas jovens deveriam ser mais salvas do que idosos, mas em países asiáticos, o resultado foi o inverso. O que fazer numa situação em que de um lado há uma mulher grávida e do outro um grupo de 3 homens adultos?
O Moral Machine não buscava respostas corretas, mas sim mapear como as pessoas realmente pensam, quais seus julgamentos em diferentes cenários e, com isso, chegou à uma conclusão: não existe um consenso universal.
Em outras palavras, não foi possível chegar a um código master sobre a moralidade humana que pudesse ser usada para programação dos carros autônomos porque a ética em IA não pode ser puramente técnica: exige adaptação social, étnica e cultural, que só pode ser definida caso a caso em debate público, com decisões políticas e regulamentação legal.
Isso tudo não deve ser um balde de água fria para os mais empolgados com as possibilidades dessa tecnologia. Tão pouco interpretado como negacionismo, mas apenas que o assunto é mais complexo do que parece e que não devemos atropelar essas etapas.
Afinal, porque trens e metrô que são presos em trilhos e só andam em duas direções ainda tem maquinistas? Porque aviões, ainda tem piloto e co-piloto se já são capazes de decolar, voar e pousar autonomamente há décadas? A resposta é: porque estão transportando vidas humanas. Com essa grande responsabilidade, vem o liability ou responsabilidade.
É tentador imaginar um futuro em que apertamos um botão no celular e um carro, sem motorista algum, nos leva com segurança até o destino. Essa visão de ficção científica inspira otimismo e investimentos bilionários. Mas entre o laboratório e a vida real existe um longo caminho: um caminho feito de legislações ainda inexistentes, de dilemas éticos sem consenso, de responsabilidades que ninguém quer assumir.
Talvez chegue o dia em que a tecnologia e a sociedade caminhem juntas rumo a esse horizonte. Mas até lá, é mais provável que convivamos com uma realidade híbrida: motoristas e máquinas lado a lado, cada um com seu papel. Não porque a tecnologia falhou, mas porque o transporte de vidas humanas exige algo que nenhum algoritmo, até agora, conseguiu oferecer plenamente — responsabilidade.
Por exemplo, este texto não foi escrito por IA, mas foi corrigido e melhorado por ela. No fim, a pergunta não é “quando os carros autônomos substituirão os motoristas?”, mas sim “como a sociedade escolherá conviver com essa tecnologia?”
Luiz Gustavo Neves é empreendedor