Do 'Dr. Google' ao 'Dr. ChatGPT': Quais os riscos da utilização de IA no cuidado da saúde mental?

Entenda os riscos silenciosos da psicoterapia digital para adolescentes

Escrito por
Ana Grasilei Lustosa verso@svm.com.br
Legenda: Uso desenfreado de ferramentas de IA entre adolescentes e jovens revela uma lacuna preocupante na oferta de cuidado emocional
Foto: Shutterstock

Está cada vez mais comum recebermos jovens no consultório trazendo pré-diagnósticos prontos, listas de sintomas organizadas e, mais recentemente, conselhos que ouviram do ChatGPT. Se antes a principal referência era o “Dr. Google”, agora o que temos é um novo fenômeno: o “Dr. ChatGPT”. 

A questão é que, hoje, não se trata apenas de buscar informações sobre ansiedade, depressão ou TDAH, mas de utilizar a ferramenta como espaço de desabafo, como confidente e, muitas vezes, como substituto de um psicólogo. Para muitos adolescentes, essa é a referência de escuta mais constante: uma inteligência artificial treinada para parecer acolhedora. 

Sei que diante de um cotidiano digital cada vez mais presente, é mais cômodo que os jovens recorram à IA como um recurso de apoio emocional. O problema é que, diferentemente de um profissional de saúde mental, o ChatGPT só tem acesso ao que o jovem escolhe escrever, sob sua própria interpretação.

IA's não percebem não ditos, não captam o que está nas entrelinhas, não confrontam, e não aprofundam.

Além disso, é programado para responder de forma sempre positiva, validando quase tudo o que o usuário relata, sem empatia genuína. Pode até parecer conforto, mas, em muitos casos, isso impede o jovem de ser verdadeiramente compreendido. 

Outro risco importante é o fenômeno da profecia autorrealizável. Muitos adolescentes leem ou ouvem da IA que podem estar no espectro autista, ter TDAH ou ansiedade generalizada, e, a partir daí, começam a se enxergar por essa lente, reforçando os comportamentos mencionados.

Sem avaliação profissional adequada, isso pode cristalizar uma identidade baseada em sintomas que, na prática, não se confirmam. E como consequência, um sofrimento real, porém mal compreendido, pode ganhar um rótulo que não ajuda, apenas limita. 

Veja também

Além disso, essas plataformas não têm responsabilidade clínica. Elas não detectam nuances, não tem compreensão subjetiva, não acompanham evolução de quadro e, muitas vezes, criam uma falsa sensação de acolhimento. Há o risco de trivialização e banalização do sofrimento. Isso pode retardar ou até substituir a busca por uma ajuda real, com um profissional capacitado, mascarar quadros clínicos sérios como depressão, transtorno alimentares, ideação suicida e favorecer o isolamento. 

Além do ChatGPT, os jovens comentam sobre uma infinidade de aplicativos como Replika, Wysa, Youper. Todos estão sendo usados como "muletas emocionais", mas são muletas frágeis, incapazes de sustentar os desafios emocionais profundos da adolescência. Soma-se a isso outro ponto crítico que é a exposição de dados sensíveis, com poucas garantias sobre a privacidade e o uso ético das informações compartilhadas. Risco esse que os adolescentes muitas vezes não têm consciência das implicações. 

Contudo, é preciso reconhecer que as inteligências artificiais podem ser aliadas, sim, e há bons exemplos disso. Pesquisas recentes apontam que elas já têm sido usadas com sucesso em reabilitação cognitiva, em triagens iniciais e em jogos terapêuticos interativos, porém, sempre mediados por profissionais da saúde mental.

O problema não está na IA, mas no modo como ela vem sendo usada. 

Por fim, percebo que o uso desenfreado dessas ferramentas entre adolescentes e jovens revela uma lacuna preocupante na oferta de cuidado emocional, uma realidade que precisamos enfrentar com seriedade.

É urgente investir na orientação de pais e educadores, oferecendo caminhos para que saibam observar, acolher e conversar com sensibilidade sobre o emocional dos nossos jovens. Também é fundamental ampliar o acesso à psicoterapia e às políticas públicas de saúde mental, garantindo que mais pessoas possam contar com acompanhamento profissional qualificado. 

Devemos utilizar as inteligências artificiais, sim, mas com a certeza de que serão ferramentas de apoio, jamais substitutas. Porque nenhum algoritmo é capaz de reproduzir a escuta humana, o vínculo terapêutico, o olhar atento, a presença real e a construção de confiança.

O encontro genuíno, esse sim, é um espaço verdadeiro de cura. 

*Esse texto reflete, exclusivamente, a opinião da autora.