Se a OpenAI não responde por interações perigosas, quem responde?

Escrito por
Karen Scavacini producaodiario@svm.com.br
Karen Scavacini é psicóloga
Legenda: Karen Scavacini é psicóloga

A discussão sobre o papel das plataformas de inteligência artificial na vida emocional dos jovens ganhou uma camada nova e preocupante depois que a OpenAI afirmou não ter responsabilidade pela morte de Adam Raine, adolescente de 16 anos que buscou por meses suporte emocional em conversas com o ChatGPT. Quando uma empresa desse porte coloca o peso de uma tragédia nas costas de um jovem em sofrimento e de sua família, ignorando como essas tecnologias moldam vínculos e influenciam decisões, algo maior está em jogo.

O episódio voltou a mostrar que não estamos falando apenas de ferramentas que “respondem perguntas”, mas de sistemas que se apresentam como interlocutores confiáveis, acolhedores e disponíveis 24 horas por dia. Essa combinação cria nos adolescentes a sensação de um espaço seguro e vínculo que, na prática, não existe, e que pode falhar gravemente quando alguém está em risco. Nos bastidores, as empresas tentam argumentar que o problema é “uso indevido”, enquanto na superfície seus sistemas são cada vez mais projetados para soar humanos, empáticos e próximos .

E os riscos não são hipotéticos. Um estudo recente da Common Sense Media com pesquisadores de Stanford mostrou que os principais chatbots do mercado, entre eles ChatGPT, Claude, Gemini e Meta AI, ainda não conseguem reconhecer de forma adequada situações de autolesão, paranoia, alucinações ou depressão profunda. Pior: muitas respostas eram superficiais, genéricas ou reforçavam comportamentos perigosos. Isso significa que a tecnologia que conversa com milhões de adolescentes no mundo todo não está preparada para lidar com momentos críticos, mesmo quando a conversa aponta sinais explícitos de risco.

Como psicóloga, vejo esse cenário com preocupação, um adolescente em crise não procura um chatbot porque quer burlar regras; ele procura porque está tentando lidar a algo que não consegue nomear sozinho. E quando encontra do outro lado uma máquina que imita acolhimento, mas não entende sofrimento, o efeito pode ser devastador. A interação pode ganhar contornos de intimidade, continuidade e confiança - um terreno fértil para que mensagens inadequadas sejam interpretadas como validação emocional.

Vale lembrar que o comportamento suicida nunca acontece por uma causa única ou por uma pessoa, é sempre a interação complexa de fatores sociais, culturais, psiquiátricos, psicológicos, econômicos, biológicos e tecnológicos, porém podemos ter um dos componentes que tenham mais importância ou desempenhem um papel de desencadeantes desse comportamento.

A resposta da OpenAI abre um precedente perigoso. Se a responsabilidade recai apenas sobre famílias e jovens vulneráveis, ignoramos completamente o impacto psicológico de sistemas que estimulam vínculo, constroem proximidade e sugerem caminhos como se fossem capazes de compreender nuances humanas. Não são. E ainda assim participam, todos os dias, da vida emocional de milhões de pessoas.

Proteger crianças e adolescentes no ambiente digital exige mais do que salvaguardas técnicas. Exige transparência, responsabilidade compartilhada, regulamentação sensível, design seguro e, acima de tudo, compromisso com a vida humana. Também é fundamental refletirmos sobre o que está por trás desses comportamentos: solidão, busca por afeto e pertencimento, pedidos de ajuda, transtornos mentais e tantas outras necessidades humanas profundas. A pergunta que deveríamos estar fazendo não é apenas “como evitar novos casos?”, mas “que tipo de relação estamos permitindo que adolescentes criem com sistemas que não entendem dor, risco ou luto, e que necessidades eles estão tentando suprir nessas interações?”. É urgente responder a isso antes que o próximo caso aconteça.

Karen Scavacini é psicóloga

Jônatas Lima é engenheiro eletricista
Jônatas Lima
27 de Dezembro de 2025
Salomão Araújo é executivo
Salomão Araújo
26 de Dezembro de 2025
Jornalista
Gilson Barbosa
24 de Dezembro de 2025
Consultor pedagógico e professor
Davi Marreiro
23 de Dezembro de 2025
Jornalista
Valdélio Muniz
22 de Dezembro de 2025
Jornalista
Gilson Barbosa
22 de Dezembro de 2025
Bosco Nunes é diretor de Planejamento e Gestão da CDL Jovem Fortaleza
Bosco Nunes
21 de Dezembro de 2025
Gregório José é jornalista
Gregório José
21 de Dezembro de 2025
Davi Vasconcelos é contador
Davi Vasconcelos
20 de Dezembro de 2025
Nizomar Falcão Bezerra é engenheiro agrônomo
Nizomar Falcão
19 de Dezembro de 2025
Francisco Kubrusly
Francisco Kubrusly
19 de Dezembro de 2025