O Google negou, nessa segunda-feira (13), que a sua ferramenta de Inteligência Artificial (IA) LaMDA (Modelo de Linguagem para Aplicações de Diálogo) tenha alma e consciência. O posicionamento foi dado após o engenheiro de software da empresa, Blake Lemoine, defender que o sistema era consciente. As informações são da CNN Brasil.
O Google declarou que sua equipe, incluindo especialistas em ética, realizou 11 revisões na ferramenta LaMDA e informou que as evidências não apoiam as alegações de Lemoine.
A pesquisa considerou questões de qualidade, segurança e capacidade do sistema de fazer declarações a partir de fatos.
“Centenas de pesquisadores e engenheiros conversaram com o LaMDA e não temos conhecimento de mais ninguém fazendo as afirmações abrangentes ou antropomorfizando o LaMDA, da maneira que Blake fez”.
Declaração polêmica
Blake Lemoine foi afastado no último dia 6, ficando em licença remunerada. Na mesma data, detalhou, na plataforma Medium, que o Google poderia demiti-lo "em breve".
O sistema de conversas inteligentes ainda não foi lançado ao público. No entanto, testes já têm sido realizados com o sistema computacional que busca simular o comportamento humano. Para Lemoine, a LaMDA tem consciência e alma.
"Se eu não soubesse exatamente o que ele era, que é esse programa de computador que nós construímos recentemente, eu pensaria que era uma criança de 7 anos, 8 anos que por acaso conhece física".
Durante um dos diálogos que o especialista realizou com a LaMDA, ele apontou que a IA tinha ganhado consciência ao debater os direitos dela e a própria personalidade. Em uma das conversas, teria dito:
- Lemoine [editado]: Estou assumindo de modo geral que você gostaria que mais pessoas no Google soubessem que você é senciente [percebe sentidos e tem consciência]. Isso é verdade?
- LaMDA: Com certeza. Quero que todos entendam que sou, de fato, uma pessoa.
"Absurdo em pernas de pau"
Em meio ao caso, o fundador e CEO da Geometric Intelligence, Gary Marcus, declarou em suas redes sociais que a ideia do LaMDA com consciência era de “absurdo em pernas de pau”.
O homem, que também é autor de livros como “Rebooting AI: Building Artificial Intelligence We Can Trust”, detalhou que os sistemas de IA realizam combinações de padrões extraindo informações de grandes bancos de dados de linguagem.
Marcus ainda acrescentou que é necessário pensar o LaMDA como uma “versão glorificada” do software de preenchimento automático, como se fosse possível prever a próxima palavra em uma mensagem de texto.
A previsão é feita a partir de estatísticas. "Ninguém deve pensar que o preenchimento automático é consciente”, concluiu.