‘Algoritmos não cometem só erros técnicos, eles produzem apagamentos e racismo’, alerta pesquisador

Em entrevista ao Diário do Nordeste, o professor do Departamento de Letras Vernáculas da UFC, Júlio Araújo, fala sobre o tema.

Escrito por
Thatiany Nascimento thatiany.nascimento@svm.com.br
Legenda: O autor, propõe o conceito de necroalgoritmização, que é mais amplo que e o racismo algorítmico
Foto: Shutterstock

Pegar o celular e fazer perguntas simples a sistemas de Inteligência Artificial (IA), pedir explicações sobre temas diversos, solicitar ajuda para entender o contexto de um fato, gerar imagens, identificar dúvidas sobre assuntos públicos, resumir documentos, consumir conteúdos digitais que trazem sugestões personalizadas ou mesmo usar o desbloqueio por reconhecimento facial. Ações rápidas e cada vez mais rotineiras para boa parte da população, mediadas por IAs em uma atuação quase invisível. 

Nos últimos anos, é justamente nesses processos que as IAs avançam e, com elas, os algoritmos, que são códigos desenvolvidos para executar tarefas. Mas como esses sistemas interferem no nosso dia a dia? E, mais que isso, eles podem reproduzir preconceitos sociais e com isso influenciar usuários de forma sutil e quase imperceptível?

Estudos no campo da Linguística, como as desenvolvidas pelo pesquisador cearense, doutor em Linguística e professor do Departamento de Letras Vernáculas da Universidade Federal do Ceará (UFC), Júlio Araújo, indicam que sim. Pesquisas de Júlio destacam que esses mecanismos não são apenas ferramentas técnicas, mas também participam da construção da linguagem e das relações sociais

Legenda: Júlio Araújo é professor do Departamento de Letras Vernáculas da Universidade Federal do Ceará (UFC)
Foto: Divulgação

Logo, as IAs, ressalta Júlio, não funcionam apenas como “um jogo de pergunta e resposta” e “algoritmos produzem apagamentos e racismo”. Isso porque esses dispositivos têm potencial para moldar discursos, influenciando a forma como as pessoas são representadas e tratadas digitalmente, incluindo populações historicamente marginalizadas, como negros, moradores da periferia e mulheres, entre outros.

No mês da Consciência Negra, o Diário do Nordeste entrevista o pesquisador que tem destacados estudos na área que conecta a relação entre tecnologias, IAs e problemas como racismo, viés, exclusão e distorções de percepção. No livro “Necroalgoritmização: notas para definir o racismo algorítmico”, lançado em agosto de 2025, o pesquisador propõe o conceito de necroalgoritmização e amplia a ideia de necropolítica do intelectual camaronês Achille Mbembe. 

Veja também

Ao abordar as formulações apresentadas na publicação e em seus demais estudos, Júlio reforça: “as decisões sobre quem aparece e quem desaparece (na vida digital) já não pertencem exclusivamente ao debate humano. Elas se deslocam para sistemas treinados por séculos de desigualdade”.

Ao Diário do Nordeste, Júlio falou sobre o conceito formulado por ele, como esse fenômeno se manifesta no cotidiano; a ausência de neutralidade nesses sistemas; a necessidade de letramento digital e do apagamento gerado por esse conjunto de dispositivos e acrescentou: “em análises de textualidade algorítmica, quando examino prompts, respostas e funcionamento interno dos modelos, percebo como associações estatísticas carregam imaginários raciais e coloniais. Palavras como ‘negro’, ‘favela’ ou ‘periferia’ acionam roteiros visuais de violência, perigo ou marginalidade.

Confira a entrevista completa:

No seu livro, o conceito de necroalgoritmização é central. Como o senhor define esse termo e em que ele se diferencia de abordagens como viés algorítmico ou racismo algorítmico?

Eu defino necroalgoritmização como o processo pelo qual sistemas algorítmicos participam da gestão da vida e da morte de determinados grupos. É quando um algoritmo estabelece rotinas estruturais de apagamento, silenciamento, precarização e violência dirigidas a certos corpos, territórios e modos de existir.

Enquanto o debate sobre “viés algorítmico” costuma se concentrar em erros técnicos, resultados enviesados, bases de dados desbalanceadas, e o racismo algorítmico enfatiza a reprodução de hierarquias raciais nos sistemas de IA, a necroalgoritmização dá um passo além, pois ela pergunta o que esses erros fazem com as condições concretas de viver. A necroalgoritmização é mais ampla e o racismo algorítmico é uma de suas manifestações. 

Em diálogo com a necropolítica de Achille Mbembe, eu sustento que há algoritmos que, ao negar crédito, bloquear conteúdo, associar rostos negros à criminalidade ou invisibilizar determinadas línguas e corpos, produzem zonas de não existência, zonas em que a pessoa é sempre suspeita, sempre descartável, sempre menos crível.

O racismo algorítmico é uma dimensão central desse processo, mas a necroalgoritmização o amplia para um quadro em que a máquina se torna um dos dispositivos que administram quem pode aparecer, falar, circular, e quem é sistematicamente empurrado para a borda ou para fora do campo social. 

É possível então dizer que a necroalgoritmização aponta um fenômeno concreto? Como esse processo aparece no cotidiano e de que formas ele pode ser identificado?

Estamos vivendo um momento histórico em que a antiga Sociedade do Cansaço, formulada por Byung-Chul Han (filósofo sul-coreano), já não consegue explicar a profundidade das violências que estruturam o nosso tempo. 

Durante muito tempo insistimos que o problema central era o excesso de produtividade. Hoje o cenário se desloca, pois não se trata apenas de exaustão. Vivemos a emergência daquilo que denomino Sociedade da Necroalgoritmização.

Nessa nova configuração, a violência não nasce no colapso subjetivo de quem não acompanha o ritmo da produtividade. Ela se origina muito antes, na própria infraestrutura que permite a existência do mundo digital. 

A necroalgoritmização se inscreve nos corpos que extraem terras raras, cobalto, silício, lítio e outros minerais em contextos de exploração profunda. Ela atravessa trabalhadores do Sul Global, muitos deles negros, indígenas e migrantes, cujas vidas são tratadas como combustíveis descartáveis para manter aceso o brilho das telas. 

Também se manifesta na devastação ambiental provocada pelo uso massivo de água potável para resfriar data centers, como se os recursos hídricos do planeta fossem ilimitados. Antes que qualquer linha de código-fonte seja escrita, vidas já foram empurradas para zonas de morte. O drone que sobrevoa e mata, como nas guerras em Gaza, apenas atualiza uma lógica de violência que começou bem antes desse voo.

Quando observamos o nível político percebemos que a necroalgoritmização não apenas desgasta. Ela corrói a própria possibilidade de vida democrática. Os sistemas algorítmicos modulam visibilidade, amplificam ódio, silenciam ativistas e escritores.

A esfera pública passa a ser reorganizada por cálculos que reproduzem assimetrias históricas. A Sociedade da Necroalgoritmização implode o espaço em que o comum deveria ser construído. As decisões sobre quem aparece e quem desaparece já não pertencem exclusivamente ao debate humano. Elas se deslocam para sistemas treinados por séculos de desigualdade.

A necroalgoritmização opera de forma interseccional e isso significa que ela não atinge apenas um tipo de corpo ou identidade. Ela se concretiza pelo racismo algorítmico, pela transfobia e pela homofobia automatizadas, pela misoginia reproduzida em larga escala, pelo audismo que apaga as línguas de sinais e as pessoas Surdas, pelo etarismo, pelo capacitismo, pela gordofobia, pela islamofobia e pela xenofobia digital. 

São sistemas que inferem quem é legível como dado e quem sequer merece existir na superfície das plataformas. Na Sociedade do Cansaço o sujeito era pressionado a performar. Na Sociedade da Necroalgoritmização muitos sequer alcançam esse ponto, pois são apagados antes de serem reconhecidos como sujeitos.

Em alguns ocasiões, o senhor já abordou o Triângulo Discursivo da Textualidade Algorítmica (TDTA) que, de modo simplificado é uma proposta que aponta que para entender como a IA funciona, é preciso olhar para o que o usuário escreve, o que o algoritmo faz e qual resposta entrega. Na prática, como esse método ajuda as pessoas a entenderem que as máquinas não são neutras?

Elaborei uma abordagem que eu chamo de Triângulo Discursivo da Textualidade Algorítmica (TDTA) e, conforme a minha concepção, esse instrumento nos ajuda a revelar que a inteligência artificial não funciona como um simples jogo de pergunta e resposta, como a maioria das pessoas ainda acredita. 

Segundo as minhas pesquisas, é muito importante divulgar que, entre o que o usuário pede e o que a máquina devolve, existe um território opaco em que escolhas técnicas se misturam com decisões históricas, políticas e ideológicas. É nesse território invisível que a neutralidade tecnológica se desfaz.

O processo começa pelo Texto-Prompt, que tradicionalmente é compreendido como aquilo que o usuário escreve de forma consciente quando faz uma busca, envia uma mensagem, preenche um cadastro ou formula um comando para uma IA generativa. Esse é o que chamo de prompt voluntário. 

Mas, para compreender a profundidade do funcionamento algorítmico, é indispensável reconhecer outro modo de entrada de dados que opera de forma silenciosa e permanente: o prompt involuntário, um regime de captura de rastros digitais que se realiza sem consciência ou consentimento. 

Veja também

Câmeras de reconhecimento facial em espaços públicos, microfones ativados por proximidade, fotografias indexadas por motores de busca, metadados extraídos de passos, rotinas, deslocamentos e padrões de navegação, áudios que mandamos uns aos outros pelo WhatsApp, chamadas de vídeo, um carro que pedimos na Uber, um sanduiche no iFood, uma música no Spotify, etc. Tudo isso se converte em insumo algorítmico, mesmo quando o sujeito nada disse, nada pediu, nada autorizou. Com isso, quero dizer que, hoje em dia, a vida é textualizada antes que qualquer interação aconteça de fato.

Esse prompt involuntário amplia o alcance do TDTA, pois revela que a inscrição do sujeito no sistema já nasce atravessada por vigilância, colonialidade de dados e assimetrias raciais. 

Casos de prisões injustas demonstram isso com clareza. Homens negros detidos com base em falsos positivos de reconhecimento facial, câmeras que tratam rostos como suspeitos por simples inferência estatística, dispositivos domésticos utilizados como testemunhas involuntárias, ainda que ninguém tenha acionado um comando. O sujeito não fala, mas a máquina produz um texto sobre ele. O sujeito não pede nada, mas já foi inscrito como dado. 

Depois do Texto-Prompt, voluntário ou involuntário, o processo entra no Texto-Algoritmo, que é o momento em que o sistema interpreta o mundo por meio de regras, pesos, associações e cálculos probabilísticos. 

Como já sabemos, não se trata de um código neutro, pois ele é escrito por inúmeras decisões humanas que escolhem o que importa, o que é descartado, o que deve ser associado a quê, que imagens são representativas, que corpos ocupam o centro e que corpos são tratados como exceção ou risco. 

Quando um pedido simples, como a imagem de uma mulher negra com cabelos afro em um cenário de favela, retorna como algo sombrio ou perigoso, a máquina está apenas atualizando associações estatísticas que foram naturalizadas dentro do Texto-Algoritmo. Nada disso acontece por acaso, já que o algoritmo interpreta. E toda interpretação carrega história e poder.

Por fim, o Texto-Resposta é o resultado visível desse processo de triangulação das três instâncias textuais. A imagem gerada, a legenda proposta, a busca exibida, o vídeo recomendado, o ranqueamento que decide o que aparece primeiro ou o que desaparece para sempre. A resposta não é fruto de cálculo puro na medida em que ela também é consequência da forma como o algoritmo leu o Texto-Prompt e ativou o Texto-Algoritmo para poder elaborar e entregar um Texto-Resposta.

O TDTA ajuda as pessoas a compreender que a IA não devolve aquilo que pedimos, mas aquilo que ela entende que pedimos. E essa interpretação nunca é neutra porque ela é atravessada por dados coletados à revelia de nós, por bases de treinamento coloniais, por escolhas técnicas que carregam epistemologias dominantes. 

Isso significa que a máquina calcula, mas também narra e quando o faz, reproduz silenciamentos, estereótipos e hierarquias que antecedem o próprio código.

Seguindo essa linha de raciocínio, muitos estudos ainda tratam algoritmos como sistemas neutros ou estritamente técnicos. Como sua pesquisa contribui para desconstruir essa ideia?

A principal contribuição da minha pesquisa é retirar o algoritmo do pedestal técnico em que foi colocado e recolocá-lo no território onde ele de fato opera: no campo da linguagem, do discurso e da política. 

Quando afirmo que o algoritmo é um texto, não faço uma metáfora. Estou dizendo que ele tem autoria, mesmo que distribuída; que faz escolhas lexicais, visuais e estatísticas; que estabelece relevâncias; que seleciona o que deve existir como dado; que produz silenciamentos e hierarquias. O algoritmo escreve o mundo tanto quanto o descreve.

Essa leitura desloca a discussão dos aspectos puramente matemáticos para questões fundamentais que pertencem ao domínio da linguagem. Um sistema algorítmico não é apenas uma sequência de códigos, mas um conjunto de enunciados que organizam sentidos. 

Quando analiso o Texto-Algoritmo e o relaciono ao Texto-Prompt e ao Texto-Resposta, como proponho no Triângulo Discursivo da Textualidade Algorítmica, consigo revelar algo que geralmente permanece invisível. Pergunto, por exemplo, que categorias esse sistema considera relevantes, quais corpos e imagens integram o treinamento e quais são descartados, que erros se repetem sempre nos mesmos grupos e que erros são tratados como impossíveis, quem é alçado à condição de padrão e quem aparece como anomalia.

Essas perguntas não são técnicas. São perguntas sobre poder. Quando um algoritmo prioriza um tipo de corpo, de rosto, de sotaque ou de território, ele não está apenas calculando, mas atualizando histórias muito mais antigas de colonialismo, racismo, misoginia, transfobia, audismo, etarismo e outras violências estruturais. 

O que costumo chamar de prompt involuntário também se inscreve aqui, pois grande parte dos dados que alimentam esses sistemas nasce de uma coleta compulsória que textualiza vidas sem consentimento. Rostos capturados por câmeras públicas, geolocalização acumuladas em silêncio, metadados de navegação apropriados como se fossem recursos naturais livres. Cada fragmento dessa coleta compõe o Texto-Prompt inicial e já carrega dentro de si desigualdades históricas que o algoritmo apenas reorganiza.

Com o avanço da IA e a presença das plataformas no dia a dia, quais práticas de letramento digital ajudam usuários a reconhecer discriminações geradas pelos algoritmos?

O letramento digital que defendo na era da inteligência artificial precisa ir muito além da habilidade de usar ferramentas. Ele precisa ensinar pessoas a ler aquilo que as máquinas escrevem sobre elas e subjacente à tela. Isso envolve compreender que plataformas produzem interpretações, não apenas entregam resultados, e que cada resposta algorítmica nasce de escolhas históricas e políticas que antecedem qualquer clique.

Mas, essa leitura só se torna efetiva quando dialoga com outro eixo indispensável. Sem letramento racial, o letramento digital permanece cego. Pode até formar usuários proficientes, mas não forma sujeitos capazes de perceber que as tecnologias atualizam desigualdades que há séculos organizam o mundo.

O letramento algorítmico começa pelo entendimento de que todo sistema opera sobre um conjunto de entradas que já carregam hierarquias. Muitas dessas entradas são voluntárias, quando o usuário faz uma busca, grava um áudio ou preenche um perfil. Mas a maior parte nasce de prompt involuntário, isto é, de uma captura permanente de imagens, movimentos, metadados e rastros digitais realizada sem consentimento. 

Rostos negros são capturados como suspeitos, vozes periféricas são tratadas como indesejáveis na polifonia eurocêntrica e branca, territórios inteiros são traduzidos como risco estatístico. Hoje em dia, ler tecnologia exige perceber que o Texto-Prompt já nasce desigual.

Por isso, os letramentos essenciais hoje precisam combinar consciência digital e consciência racial. Ler com desconfiança amorosa significa perguntar o que o sistema está presumindo sobre mim, mas também significa perguntar o que ele está presumindo sobre corpos como o meu e sobre corpos diferentes do meu. 

A percepção de padrões, algo tão enfatizado nos estudos internacionais sobre letramento algorítmico, tema pouco pesquisado no Brasil, só se torna politicamente relevante quando reconhecemos que os erros se repetem com cor, gênero, território e classe. Sem essa chave racial, a análise se torna superficial, porque trata injustiças como falhas individuais e não como padrão estrutural.

O letramento algorítmico exige também experimentação crítica. Mudar descrições de raça, gênero ou localização e observar como o sistema responde é uma forma de revelar que o algoritmo escolhe quem é legível e quem é descartável. Documentar e denunciar exclusões amplia essa leitura para o campo coletivo, pois o enfrentamento das desigualdades digitais não é prática isolada. Ele depende de coletivos, defensorias, associações e grupos de pesquisa que compreendam que a batalha é tanto técnica quanto social.

Em trabalhos anteriores, o senhor realizou análises mais empíricas sobre o tema. Quais contribuições essas pesquisas, que podem incluir estudos aplicados, análises técnicas e observações diretas do funcionamento das plataformas, trazem?

Os estudos empíricos que venho realizando têm uma função decisiva para elaboração de epistemologias em tempos de IA porque eles demonstram que o racismo algorítmico e outras formas de exclusão digital não são abstrações conceituais, mas experiências vividas no corpo, na voz e na vida material das pessoas.

Quando mergulho em comentários de redes sociais, relatos de professores da EJA, interações com sistemas de IA e casos concretos de vigilância digital, percebo que a violência algorítmica se manifesta de forma simbólica, afetiva e política.

Nas análises de interações em plataformas digitais, observo como os usuários disputam o significado do próprio racismo algorítmico. 

Alguns reconhecem claramente a exclusão, nomeiam o apagamento, denunciam a queda de alcance de conteúdos antirracistas e percebem que determinados corpos são sistematicamente silenciados. Outros sustentam que tudo não passa de falha técnica ou de culpa individual. 

Esse choque discursivo mostra que os algoritmos não são apenas ferramentas, mas arenas de disputa simbólica sobre quem merece visibilidade, credibilidade e dignidade. 

Quando examino prompts, respostas e funcionamento interno dos modelos, percebo como associações estatísticas carregam imaginários raciais e coloniais. Palavras como “negro”, “favela” ou “periferia” acionam roteiros visuais de violência, perigo ou marginalidade. E isso não é fruto da máquina, mas de escolhas humanas embutidas nos dados de treinamento, nos pesos estatísticos e nos filtros que definem o que é considerado relevante. 

Minhas pesquisas revelam exclusões simbólicas porque observam a tecnologia em uso real, no cotidiano, nas interações ordinárias, nos casos-limite, nos equívocos e nas dores. Elas mostram como as plataformas moldam subjetividades, silenciam vozes e legitimam desigualdades. 

Ao identificar padrões de apagamento, interpretar discursos, ouvir sujeitos marginalizados, analisar decisões algorítmicas e confrontar casos concretos de violência digital, consigo demonstrar que o algoritmo interpreta, narra, seleciona e exclui.

Esses estudos funcionam como campo vivo de evidências porque dão corpo às estatísticas e sentido às teorias. Eles mostram que a IA produz mundos. E se não forem criticamente lidos e contestados, esses mundos continuarão sendo escritos contra os mesmos de sempre.

Newsletter

Escolha suas newsletters favoritas e mantenha-se informado
Este conteúdo é útil para você?