Confiança Cega: O perigo do viés da IA nas eleições brasileiras

Escrito por
Marcelo Bissuh producaodiario@svm.com.br
Marcelo Bissuh é empreendedor
Legenda: Marcelo Bissuh é empreendedor

Quando um em cada três brasileiros usa inteligência artificial para entender política, economia ou ciência, aquela ferramenta deixa de ser apenas curiosidade e passa a ser parte do pensamento da sociedade civil. Esse dado é da Nexus, de 2026, e mostra que exatamente 30% dos brasileiros já recorrem à essas plataformas para esses fins. Ou seja, mais uma vez vemos uma tecnologia que dizia-se do futuro, chegar ao presente. A grande questão, entretanto, é um problema técnico: a inteligência artificial não é completamente neutra. E isso se dá por causa da sua natureza não determinística, ou seja, quando o resultado não pode ser previsto, mesmo ao fazer a mesma pergunta.

Uma inteligência artificial é treinada para concluir um resultado e, para isso, ela busca padrões. Esse funcionamento faz com que ela herde os vieses presentes nos dados com os quais foi treinada para chegar às suas respostas. Isso significa que se um eleitor brasileiro usar para se informar sobre eleições um agente que foi treinado sem a escolha correta e ampla de bases de informações, sua compreensão sobre política será distorcida desde a origem.

Viés algorítmico não é abstrato. Funciona assim: você alimenta um modelo com dados. Se esses dados refletem preconceitos humanos (selecionar mais notícias de um partido, treinar com informações incompletas sobre determinados grupos, ou usar históricos inconsistentes), ele aprende aqueles padrões e os replica nas próximas respostas. E isso não é apenas para política. Um outro exemplo pode ser um algoritmo de compras de um site feito com essa tecnologia. Se as pessoas que acessam o site de uma loja de roupas no Norte compram mais camisetas, e não casacos, e as do Sul compram mais casacos do que camisetas, o algoritmo irá ofertar muito mais casacos para os sulistas porque o histórico de compras mostra que não adianta mostrar camisetas.

Ainda há um segundo perigo: alucinação. Isso ocorre quando a IA não apenas aprende errado, mas inventa informações, dado que seu objetivo é retornar alguma resposta. Ela gera respostas que parecem confiantes, bem estruturadas, até convincentes, mas são simplesmente falsas. Uma alucinação em contexto eleitoral poderia inventar estatísticas econômicas favoráveis a um candidato, criar citações de especialistas que nunca existiram, ou conceber resultados de pesquisas. Ou seja, assim como no passado o Facebook já carregou o cunhão de que tudo visto lá era 100% verdade, hoje, as IAs têm carregado essa mesma autoridade, mesmo não sendo verdadeira. Essa curva de aprendizado vem com um custo para quem coloca em prática tudo que lê. O usuário, confiante, compartilha a informação falsa. Então, imagine, se 30% dos brasileiros usam IA para aprender sobre política, a amplificação dessa desinformação pode moldar opiniões públicas em massa.
 

O Brasil está entre os países que mais adotam modelos de linguagem para resolver problemas complexos segundo o Google e a Ipsos: 81% a usam para pesquisa online, 78% para assistência de escrita, 87% para resolver problemas cotidianos, 74% como recurso educacional. Quando as pessoas confiam tanto em uma ferramenta, ela precisa ser confiável. Não "confiável o suficiente." Confiável de fato.

Mas, o meu objetivo não é ser alarmista e fazer voz para a exclusão de uma solução tão importante. Pelo contrário, incluir ferramentas de IA especializadas em remover o viés (treinadas sob uma base muito equilibrada e selecionada) tem o poder de incluir ainda mais pessoas em uma discussão política de qualidade. Estas IAs especializadas são chamadas de IAs verticais. Se chamam assim pois são treinadas para serem especialistas em uma vertical de tema em si. Ou seja, nossa preocupação número 1 deve ser: como criar uma IA política que se proteja do viés no discurso.

Para além da IA especializada em política, entretanto, sabemos que a internet é um local amplo e as pessoas se consultam nela de diversas maneiras e por variadas fontes. Então, não sendo possível direcionar as pessoas a um único lugar, é inevitável pensar que o que ocorreu para os comícios, quando entraram regulamentações quanto a shows, e também para anúncios pagos nas redes sociais, quando se tornou obrigatória a transparência de quem financiava o anúncio, essa tecnologia também irá passar pela sua leva de regulação.

No Brasil essa já é uma discussão vigente, inclusive o projeto de lei tem nome e número: PL 2338/2023. Já estou monitorando para sabermos em primeira mão, quando sair alguma atualização Enquanto isso, atenção aos fatos. Nem tudo que a IA fala é verdade. Isso é óbvio, mas precisa ser dito.

Marcelo Bissuh é empreendedor

Filipe Papaiordanou é advogado
Filipe Papaiordanou
15 de Março de 2026
Mávia Ximenes é fisioterapeuta
Mávia Ximenes
14 de Março de 2026
Professor aposentado da UFC
Gonzaga Mota
13 de Março de 2026
Saraiva Júnior é escritor
Saraiva Júnior
12 de Março de 2026