'O Chat GPT é meu terapeuta’: por que confiar na IA para desabafar pode ser perigoso à saúde mental?

Jovens têm usado a ferramenta como substituto da terapia. Brincadeira ou não, a escalada desses casos tem gerado debate sobre o uso indiscriminado da inteligência artificial

Escrito por
Raísa Azevedo raisa.azevedo@svm.com.br
(Atualizado às 13:50, em 07 de Julho de 2025)
foto mostra mulher em conversa com o Chat GPT
Legenda: O chat tem sido usado com fins terapêuticos e a prática virou tendência em redes sociais como TikTok e X
Foto: Shutterstock

“Oi, Chat, você pode me dar um conselho?”. Uma pergunta que parece simples e despretensiosa a uma plataforma no celular pode revelar um problema profundo de saúde mental.

Usuários do Chat GPT, ferramenta de inteligência artificial projetada para gerar um texto semelhante ao humano e interagir em conversas, têm utilizado cada vez mais esse meio em busca de escuta e soluções. Há até quem o chame de “terapeuta da geração Z” ou "Dr. ChatGPT” pelas respostas rápidas e palavras gentis e acolhedoras, mas sem profundidade. O dilema é que o chat tem sido usado como um substituto a psicólogos, prática que já virou tendência em redes sociais como TikTok e X.

Especialmente entre adolescentes e jovens adultos, tem sido comum ver publicações como “o Chat GPT virou meu terapeuta”. Brincadeira ou não, a escalada de casos assim tem preocupado especialistas e gerado um debate sobre os riscos do uso indiscriminado da inteligência artificial (IA), incluindo a disseminação de informações falsas, falta de proteção de dados e a possibilidade de contribuir para ideações suicidas e pioras de quadros de ansiedade e depressão.

montagem de fotos de usuárias do Tiktok que usam IA como terapeuta
Legenda: Usuárias do Tiktok compartilham suas experiências com o uso da IA como terapia psicológica
Foto: Reprodução/Tiktok

A estudante Marina Carvalho* (nome fictício) relatou à reportagem que usa o chat pelo menos uma vez na semana para desabafar sobre problemas pessoais. Ela disse ter encontrado na ferramenta uma experiência acolhedora, livre de julgamentos, em momentos em que se sentiu sobrecarregada.

Em momentos difíceis, quando quero apenas compartilhar algo do meu dia a dia ou quando estou confusa, com medo de ser julgada ou de não ser compreendida, busco a ele [o chat], pois sinto que é um lugar relativamente seguro, onde posso colocar meus sentimentos para fora".
Marina Carvalho* (nome fictício)
Estudante

"Sei que isso jamais substitui uma terapia com uma psicóloga, mas nem sempre teremos uma psicóloga disponível o tempo inteiro. Muitas vezes só precisamos de alguém ou algo que acolha sem julgar e sem interromper. Além disso, ainda recebo conselhos que me ajudam a entender melhor algumas coisas e tomar algumas decisões", reconhece a estudante.

Conforme levantamento da revista Harvard Business Review, editada pela escola de pós-graduação em administração da Universidade de Harvard, o aconselhamento terapêutico se tornou o principal objetivo das pessoas ao utilizar ferramentas de inteligência artificial neste ano.

Mas quando a IA deixa de ser só uma ferramenta de auxílio para as tarefas rotineiras e passar a ser um risco para a nossa saúde mental? Com base em relatos de especialistas, o Diário do Nordeste te convida à reflexão nesta reportagem.

O primeiro alerta: isolamento social

Para a psicóloga clínica Luana Silva, do grupo Reinserir, a facilidade e o baixo custo da IA podem levar à dependência emocional e à busca por respostas que nem sempre são verdadeiras.

A especialista explica que a ferramenta pode ser útil apenas como um complemento ao tratamento psicológico com um profissional, auxiliando em pesquisas e na organização da rotina. No entanto, a IA não substitui o contato humano — crucial no processo terapêutico— e pode ser extremamente limitada nas interações.

“A inteligência artificial muitas vezes pode trazer conselhos errôneos, imprecisos e superficiais. Porque a IA não vai entender a subjetividade de uma pessoa, o contexto social e cultural em que ela está inserida. É apenas um recorte. O Chat não vai te devolver uma pergunta ou te questionar. Então, ele coloca um recorte muito pequeno da sua existência”, pontua.

Veja também

A presença artificial em conversas como um hábito frequente faz com que o usuário entre num processo de isolamento social, em que há o distanciamento de amigos, familiares e até mesmo do próprio terapeuta.

“Essa redução de envolvimento em atividades sociais para confiar num computador ou celular por meio da inteligência artificial é muito nocivo. Precisamos conviver em sociedade, somos seres sociais, que precisam ter contato uns com os outros e estar inserido no coletivo. Essa prática acaba sendo prejudicial porque se torna intolerável”, inicia a psicóloga Luana Silva.

“Se eu passo a semana inteira conversando com a IA, fazendo perguntas em que eu sempre vou estar certa, como vou interagir com meus amigos e lidar se eles discordam de mim? Lógico que depois de um tempo isso vai ser reforçado e eu não vou mais querer interagir com essas pessoas, eu não vou mais querer ouvir a opinião do outro. Isso vai causando essa dependência emocional de máquinas”, complementa.

@dehboracosta Me cuidando com a chat gpt #depressao #fyp #chatgpt #terapia ♬ som original - Dehbora 💚

Para explicar a relação problemática que alguns pacientes podem desenvolver com a IA, a especialista cita o filme “Her”, protagonizado por Joaquin Phoenix, que conta a história de um homem solitário que se apaixona pelo novo sistema operacional do seu computador. 

“É justamente esse processo de você não precisar ter uma responsabilidade afetiva, de você não ter que, de fato, lidar com outras emoções reais ou ser cobrado por suas atitudes. Já no processo terapêutico, há a interação entre dois humanos, então existe uma emoção, um constrangimento, às vezes, que é importante”, explica a psicóloga.

O perigo da falta de proteção de dados

Ao fazer a “terapia” com o Chat GPT, muitos usuários compartilham informações extremamente pessoais com o sistema. Mas será que esses “pacientes” estão preocupados com sua privacidade e proteção de dados?

A pessoa vira refém de falar com uma tela e muitas vezes não tem muita noção da falta de privacidade. Como esses dados serão utilizados no futuro? Como que ele produz essas informações? A gente não sabe de nada, basicamente, então acaba sendo muito prejudicial nesse sentido”.
Luana Silva
Psicóloga clínica

“Além de o usuário fornecer informações pessoais com o chat, sem saber sobre a sua proteção de dados, o chat pode passar informações falsas. É bastante comum ver comentários sobre as mentiras que o chat conta. E com certeza isso também se dá nesse processo entre muitas aspas de ‘terapia’ com a inteligência artificial”, reflete Luana Silva sobre os prejuízos da IA.

Principais riscos

IA pode intensificar quadros de ansiedade e depressão

Conforme a psicóloga, a prática de “desabafar” com o chat pode, além de aumentar o isolamento, piorar quadros de ansiedade, depressão.

Pacientes com problemas de saúde mental, com quadros depressivos, podem apresentar mais desânimo e falta de vontade de realizar atividades básicas da rotina, o que é amplificado pelas conversas com a IA, uma vez que ela mantém o indivíduo em um processo de solidão, isolamento e de melancolia.

Estou com dependência emocional do chat, e agora?

Em casos de pacientes diagnosticados com depressão, a interação exclusiva com a inteligência artificial pode perpetuar esse isolamento social. Nesses casos, a terapia presencial é recomendada.

Em relação à ansiedade, é indicada uma periodicidade das sessões de terapia. Essa estrutura permite que o paciente reflita sobre suas emoções e angústias durante o período de espera entre os encontros com o psicólogo, gerenciando seus medos e questões de forma autônoma.

“Esse processo presencial é importante porque a pessoa vai ter que sair de casa e interagir, o que a inteligência artificial não proporciona. A sessão semanal pode ser algo muito interessante para que a pessoa possa receber as respostas ou as validações com a frequência ideal. Nesse período de espera, ela vai ter que elaborar sozinha os seus medos, as suas questões e angústias”, sublinha a profissional.

Veja também

Nesse ciclo perigoso do isolamento, o chat pode gerar uma dependência emocional ao trazer conselhos e informações superficiais.

Já em um processo terapêutico real, o psicólogo não considera unicamente o que o paciente está relatando na sessão, mas sua bagagem emocional, questões do passado, seus propósitos de futuro, o meio social e cultural.

Quando começamos a usar esse tipo de interação com a IA, passamos a definir a nossa tomada de decisões a partir de algo que não é real. Se você pede um conselho sobre a faculdade ou o trabalho, esse programa não consegue considerar realidade, ele não tem sentimentos humanos, então ele não vai saber como aquilo pode te afetar e qual retorno que isso vai ter para sua vida”.
Luana Silva
Psicóloga clínica

“Ele não vai considerar essas emoções do coletivo, ele vai só ler ali, captar aquela informação e gerar algo. Com isso, a gente vai por caminhos perigosos, porque quando se erra a interpretação de algo e joga isso para o outro, a gente não sabe o que o outro vai fazer com essa informação. Então, se é uma pessoa que está muito sensibilizada, ela pode entrar numa crise ainda pior”, completa.

Como usar a IA com consciência emocional e não como substituta da terapia?

A psicóloga e neuropsicanalista Carla Salcedo traz recomendações de como usar a ferramenta com responsabilidade e consciência emocional, destacando a importância de entender os limites da plataforma e seu uso apenas como um apoio complementar.

  1. Perceba sua motivação: Você está conversando com o ChatGPT para clarear uma ideia ou para fugir de uma dor que tem evitado encarar?
  2. Observe a frequência: Se o uso vira hábito diário ou sempre aparece em momentos de sofrimento, atenção: isso pode indicar dependência emocional digital.
  3.  Entenda o limite da ferramenta: A IA pode ajudar a organizar pensamentos, mas não identifica traumas, padrões emocionais nem constrói repertório interno.
  4. Busque apoio humano: Se está se sentindo sobrecarregado, triste, ansioso ou confuso, procure um profissional. Um psicólogo pode te acolher e acompanhar com ética e presença.
  5. Use a IA como apoio complementar: Ela pode ser útil para organizar a rotina, escrever um diário emocional, estruturar uma conversa difícil ou pensar em perguntas para levar à terapia.

As especialistas reforçam que o chat é um sistema criado apenas para auxiliar o humano em suas necessidades, não para substituí-lo. A comodidade de receber uma resposta a um problema em segundos não é equivalente a uma consulta com um profissional qualificado para exercer essa função.

Utilizar o chat para tirar dúvidas ou pedir conselhos pontuais pode ser produtivo e facilitar a rotina, o problema começa quando pessoas humanizam o sistema e o utilizam de forma frequente como um substituto perfeito.

Essa idealização de romantizar a inteligência artificial como "terapeuta virtual" é perigosa, segundo Carla Salcedo, porque mascara uma ausência de reciprocidade. “A IA não sente, não pensa, não se importa, embora seja sempre gentil. Ela funciona com base em cálculos e padrões. E, embora isso possa gerar alívio momentâneo, está muito distante do que chamamos de cuidado", conclui.

Assuntos Relacionados