2 de fevereiro de 2026

Estamos trocando a terapia pelo ChatGPT?

O uso de ferramentas de inteligência artificial generativa para apoio emocional e aconselhamento psicológico tem crescido rapidamente no mundo todo. A facilidade de acesso, o anonimato e a sensação de acolhimento oferecida por chatbots levaram muitas pessoas a recorrerem à tecnologia como alternativa ao atendimento profissional. Mas especialistas alertam que essa substituição pode trazer riscos sérios à saúde mental.

O debate ganhou força após uma análise publicada pelo jornal Le Monde, que reuniu evidências científicas recentes sobre o uso de IA generativa em contextos psiquiátricos. A reportagem destaca que, embora esses sistemas consigam simular empatia e oferecer respostas elaboradas, eles não possuem formação clínica, responsabilidade ética nem validação científica para atuar como terapeutas.

A matéria se baseia em estudos conduzidos por pesquisadores das áreas de psiquiatria, psicologia e ciência da computação que avaliaram como grandes modelos de linguagem respondem a relatos de sofrimento psíquico. Pesquisadores da Brown University demonstraram que, mesmo quando orientados a utilizar técnicas psicoterapêuticas baseadas em evidências, os chatbots com IA generativa frequentemente violam padrões éticos da American Psychological Association.

Na prática, o trabalho mostrou que chatbots tendem a reforçar percepções do usuário, mesmo quando essas percepções são distorcidas ou prejudiciais. Em quadros de depressão, ansiedade grave ou transtornos psicóticos, esse comportamento pode agravar o sofrimento em vez de aliviar.

Outro ponto central é a ausência de ensaios clínicos robustos. Diferentemente de medicamentos ou terapias reconhecidas, ferramentas de IA não passaram por testes controlados de longo prazo que comprovem eficácia e segurança. Uma das principais referências citadas no debate é uma revisão publicada na revista npj Mental Health Research, do grupo Nature. O estudo analisou pesquisas que avaliaram chatbots e sistemas baseados em linguagem natural para apoio psicológico.

O que dizem os órgãos de saúde brasileiros

No Brasil, o crescimento do uso de aplicativos e plataformas digitais voltadas à saúde mental ocorre em paralelo a um cenário preocupante. Dados da Organização Mundial da Saúde indicam que o país lidera os índices de ansiedade no mundo e está entre os primeiros em casos de depressão. Ao mesmo tempo, o acesso a psicólogos e psiquiatras ainda é desigual, especialmente na rede pública, o que ajuda a explicar por que soluções digitais ganham espaço.

Apesar disso, conselhos profissionais fazem alertas claros. Em 2025, o Conselho Federal de Psicologia afirma que nenhuma tecnologia pode substituir a escuta qualificada, o vínculo terapêutico e a responsabilidade ética envolvidos no atendimento psicológico. O órgão reforça que o cuidado em saúde mental exige formação técnica, supervisão e compromisso com o bem-estar do paciente, algo que algoritmos não são capazes de garantir.

A Organização Mundial da Saúde também já se posicionou sobre o tema. Em documentos recentes, a entidade reconhece que ferramentas digitais podem ser úteis como apoio complementar, especialmente em ações de educação em saúde ou triagem inicial de sintomas. No entanto, ressalta que o uso de IA não deve substituir profissionais qualificados, principalmente em situações de sofrimento psíquico intenso.

Os especialistas ouvidos nas pesquisas destacam ainda riscos éticos importantes, como o uso e armazenamento de dados sensíveis, a falta de transparência sobre como as informações são processadas e a possibilidade de dependência emocional do usuário em relação à tecnologia. Há preocupação de que pessoas passem a adiar ou abandonar o tratamento adequado por acreditarem que o chatbot é suficiente.

O consenso entre pesquisadores, entidades científicas e conselhos profissionais é que a inteligência artificial pode ter um papel auxiliar na saúde mental, mas não terapêutico. A substituição de psicólogos por chatbots, além de cientificamente injustificada, pode expor usuários a riscos graves.

A pergunta que dá título ao debate não tem resposta simples, mas o alerta é claro. Tecnologia pode ajudar, mas não trata. E quando se fala em saúde mental, o custo de confundir essas duas coisas pode ser alto.

COMPARTILHE
Facebook
Twitter
LinkedIn
Reddit