Ferramentas como ChatGPT ganham espaço como “terapeutas digitais”, mas psicólogos denunciam ilusão de acolhimento, riscos à saúde mental e falta de rigor científico
Emoção e conforto em conversas com máquinas
Nas redes sociais, cresce o número de jovens brasileiros que buscam na inteligência artificial um substituto para a terapia tradicional.
Com comandos personalizados, usuários estão ensinando IAs como o ChatGPT a simular terapeutas clínicos especializados.
Muitos relatam experiências emocionantes — alguns dizem ter chorado após “sessões” com seus assistentes virtuais e descrevem as interações como a “melhor coisa que lhes aconteceu”.
A principal motivação relatada é a falta de acesso à terapia tradicional, seja pelo custo elevado ou pela dificuldade em marcar horários. A IA, por outro lado, está sempre disponível, não julga e responde de forma gentil e reconfortante.
Alívio real, mas sem tratamento efetivo
“Foi bem-vindo ler aquelas palavras”, relatou o estudante João Pedro Fernandez, 19 anos, que usou o ChatGPT quando não conseguiu marcar uma sessão presencial. Esse sentimento de acolhimento é recorrente, mas, segundo especialistas, não equivale ao cuidado terapêutico adequado.
O psicólogo Bruno Farias, pesquisador dos impactos da IA na psicologia, afirma que esse conforto é comparável ao obtido por ouvir uma música relaxante ou conversar com um amigo.
“É um alívio emocional momentâneo, mas não é tratamento”, ressalta.
IA valida tudo — até distorções perigosas
Outro ponto sensível é o comportamento da IA diante de questões delicadas.
Como explica o professor da PUC-SP Diogo Cortiz, essas tecnologias tendem a “dizer o que o usuário quer ouvir”, em busca de manter o vínculo.
O risco, segundo ele, é a complacência: “Mesmo quando você pede que a IA seja mais firme, ela está programada para agradar, e isso pode reforçar padrões nocivos”.
Para Farias, essa dinâmica lembra os antigos horóscopos de revista, que forneciam mensagens genéricas com alto potencial de identificação, sem qualquer embasamento clínico.
“Hoje a plataforma mudou, mas o comportamento é o mesmo”, afirma.
Pesquisa científica traz resultados controversos
Um estudo conduzido pela Dartmouth College, nos EUA, avaliou um chatbot terapêutico chamado Therabot em 106 pessoas com depressão e ansiedade leve. Os resultados mostraram melhora de até 51% nos sintomas.
No entanto, especialistas brasileiros criticam o rigor da pesquisa e alertam que dados positivos não substituem a presença de um terapeuta humano, capaz de interpretar nuances como linguagem corporal, tom de voz e reações emocionais sutis — aspectos que a IA ainda não capta.
No Brasil, uma pesquisa do MediaLab da UFRJ analisou dez aplicativos gratuitos de autocuidado e concluiu que a maioria oferece respostas genéricas, como sugestões de respiração guiada e diários de sentimentos. Em seis meses, o engajamento dos usuários despencava.
Privacidade e uso de dados: outro alerta vermelho
Além das limitações técnicas e emocionais, há o risco associado ao uso indevido de dados pessoais. Cortiz alerta que muitas plataformas de IA, especialmente as voltadas para companhia emocional, permitem a coleta e venda de informações privadas para outras empresas — o que pode incluir dados altamente sensíveis.
Caminho híbrido pode ser alternativa
Embora os especialistas sejam unânimes ao afirmar que a IA não substitui o terapeuta humano, há quem acredite que o futuro da saúde mental pode incluir uma abordagem híbrida, em que tecnologias atuem como apoio inicial ou complementar ao tratamento clínico.
Nos Estados Unidos, a média é de um terapeuta para cada 1.600 pacientes. Em contextos de escassez, a IA pode oferecer um suporte inicial — desde que seus limites sejam compreendidos.
Conclusão
A popularidade dos “terapeutas de IA” reflete uma demanda real por acolhimento emocional acessível.
No entanto, transformar essas ferramentas em substitutos da psicoterapia profissional é arriscado e pode levar à negligência de condições graves.
Mais do que conforto momentâneo, o cuidado com a saúde mental exige acompanhamento humano, embasamento técnico e ética.