A busca por apoio emocional em ferramentas de inteligência artificial cresce em ritmo acelerado. Plataformas como o ChatGPT têm sido usadas por milhares de pessoas em momentos de ansiedade, tristeza e crise. No entanto, uma nova investigação científica sugere que esses sistemas podem não estar preparados para assumir o papel de conselheiros em saúde mental.
O estudo intitulado Como os conselheiros com mestrado em Direito violam os padrões éticos na prática da saúde mental: uma estrutura informada pela prática, liderado por Zainab Iftikhar e publicado em 2025 na revista científica Anais da Conferência AAAI/ACM sobre IA, Ética e Sociedade (DOI: 10.1609/aies.v8i2.36632), analisou como modelos de linguagem se comportam quando orientados a atuar como terapeutas.
Os resultados acendem um alerta importante.
Empatia parece real, mas não é
Os pesquisadores testaram diferentes modelos amplamente utilizados, incluindo versões da série GPT, Claude e Llama, simulando atendimentos baseados em terapia cognitivo-comportamental. Em seguida, psicólogos clínicos avaliaram as interações sob a ótica ética.
A análise identificou 15 riscos distintos, organizados em cinco grandes áreas problemáticas:
• Respostas genéricas que ignoram o contexto individual
• Condução excessivamente diretiva da conversa
• Uso de linguagem que simula empatia sem compreensão real
• Possíveis vieses relacionados a gênero, cultura ou religião
• Falhas graves na gestão de crises, inclusive em situações com ideação suicida
Em outras palavras, embora os chatbots consigam reproduzir conceitos técnicos, eles não demonstram julgamento clínico nem responsabilidade profissional.
O limite dos prompts na terapia com IA
Uma das hipóteses avaliadas foi se instruções específicas poderiam tornar o aconselhamento por IA mais seguro. Muitos usuários recorrem a comandos como “aja como terapeuta cognitivo-comportamental” na tentativa de melhorar a qualidade da resposta.
Contudo, a pesquisa mostrou que prompts bem elaborados não resolvem o problema central. O modelo continua operando com base em padrões estatísticos aprendidos, sem consciência, escuta ativa ou capacidade real de avaliar risco.
Portanto, a sofisticação da instrução não substitui formação clínica, supervisão ou responsabilidade ética.
A lacuna regulatória preocupa especialistas
Na prática clínica humana, erros podem ocorrer. Entretanto, existem conselhos profissionais, códigos de ética e mecanismos de responsabilização. No caso dos sistemas de IA, esse arcabouço ainda é incipiente.
Esse vazio regulatório levanta questões fundamentais:
• Quem responde por danos causados por aconselhamento inadequado?
• Como monitorar vieses e falhas em larga escala?
• Quais critérios mínimos devem ser exigidos antes da implementação clínica?
Sem diretrizes claras, o risco é que ferramentas desenvolvidas para ampliar o acesso acabem agravando vulnerabilidades.
IA na saúde mental: ameaça ou oportunidade?
Apesar das falhas identificadas, o estudo não descarta o uso da inteligência artificial na área. Pelo contrário, reconhece seu potencial para ampliar o acesso a informações e oferecer suporte inicial.
No entanto, a aplicação em contextos de alto risco exige avaliação rigorosa, supervisão humana e critérios éticos bem definidos. A tecnologia pode ser aliada, mas não substituta da psicoterapia conduzida por profissionais qualificados.
Diante do crescimento do uso dessas ferramentas, a mensagem central é clara: inovação precisa caminhar junto com responsabilidade.

