Pesquisa revela limites preocupantes da terapia por IA

Chatbots podem falhar em situações de crise. (Foto: Fala Ciência via Gemini)
Chatbots podem falhar em situações de crise. (Foto: Fala Ciência via Gemini)

A busca por apoio emocional em ferramentas de inteligência artificial cresce em ritmo acelerado. Plataformas como o ChatGPT têm sido usadas por milhares de pessoas em momentos de ansiedade, tristeza e crise. No entanto, uma nova investigação científica sugere que esses sistemas podem não estar preparados para assumir o papel de conselheiros em saúde mental.

O estudo intitulado Como os conselheiros com mestrado em Direito violam os padrões éticos na prática da saúde mental: uma estrutura informada pela prática, liderado por Zainab Iftikhar e publicado em 2025 na revista científica Anais da Conferência AAAI/ACM sobre IA, Ética e Sociedade (DOI: 10.1609/aies.v8i2.36632), analisou como modelos de linguagem se comportam quando orientados a atuar como terapeutas.

Os resultados acendem um alerta importante.

Empatia parece real, mas não é

Os pesquisadores testaram diferentes modelos amplamente utilizados, incluindo versões da série GPT, Claude e Llama, simulando atendimentos baseados em terapia cognitivo-comportamental. Em seguida, psicólogos clínicos avaliaram as interações sob a ótica ética.

A análise identificou 15 riscos distintos, organizados em cinco grandes áreas problemáticas:

• Respostas genéricas que ignoram o contexto individual
• Condução excessivamente diretiva da conversa
• Uso de linguagem que simula empatia sem compreensão real
• Possíveis vieses relacionados a gênero, cultura ou religião
• Falhas graves na gestão de crises, inclusive em situações com ideação suicida

Em outras palavras, embora os chatbots consigam reproduzir conceitos técnicos, eles não demonstram julgamento clínico nem responsabilidade profissional.

O limite dos prompts na terapia com IA

Uma das hipóteses avaliadas foi se instruções específicas poderiam tornar o aconselhamento por IA mais seguro. Muitos usuários recorrem a comandos como “aja como terapeuta cognitivo-comportamental” na tentativa de melhorar a qualidade da resposta.

Contudo, a pesquisa mostrou que prompts bem elaborados não resolvem o problema central. O modelo continua operando com base em padrões estatísticos aprendidos, sem consciência, escuta ativa ou capacidade real de avaliar risco.

Portanto, a sofisticação da instrução não substitui formação clínica, supervisão ou responsabilidade ética.

A lacuna regulatória preocupa especialistas

Na prática clínica humana, erros podem ocorrer. Entretanto, existem conselhos profissionais, códigos de ética e mecanismos de responsabilização. No caso dos sistemas de IA, esse arcabouço ainda é incipiente.

Esse vazio regulatório levanta questões fundamentais:

• Quem responde por danos causados por aconselhamento inadequado?
• Como monitorar vieses e falhas em larga escala?
• Quais critérios mínimos devem ser exigidos antes da implementação clínica?

Sem diretrizes claras, o risco é que ferramentas desenvolvidas para ampliar o acesso acabem agravando vulnerabilidades.

IA na saúde mental: ameaça ou oportunidade?

Apesar das falhas identificadas, o estudo não descarta o uso da inteligência artificial na área. Pelo contrário, reconhece seu potencial para ampliar o acesso a informações e oferecer suporte inicial.

No entanto, a aplicação em contextos de alto risco exige avaliação rigorosa, supervisão humana e critérios éticos bem definidos. A tecnologia pode ser aliada, mas não substituta da psicoterapia conduzida por profissionais qualificados.

Diante do crescimento do uso dessas ferramentas, a mensagem central é clara: inovação precisa caminhar junto com responsabilidade.

Rafaela Lucena é farmacêutica (CRF-13912) graduada pela UNIG. Une sua formação em saúde à paixão pela divulgação científica para traduzir estudos clínicos e farmacológicos para o cotidiano. Como responsável técnica pelo Fala Ciência, dedica-se a combater a desinformação com rigor técnico e embasamento científico de qualidade. Ver perfil no LinkedIn