Chatbots perigosos? Como a IA pode alimentar delírios e psicose humana

Chatbots podem reforçar delírios e afetar a saúde mental humana. (Imagem: Vecteezy Images/ Canva Pro)
Chatbots podem reforçar delírios e afetar a saúde mental humana. (Imagem: Vecteezy Images/ Canva Pro)

O avanço da inteligência artificial (IA) trouxe inúmeras vantagens, mas também desafios inesperados para a saúde mental. Casos recentes mostram que a interação prolongada com chatbots sofisticados pode amplificar delírios, gerar ansiedade e até induzir comportamentos perigosos. Humanos e máquinas podem, de fato, criar alucinações compartilhadas, um fenômeno que preocupa especialistas.

Estudos e relatórios recentes indicam que indivíduos vulneráveis recorrem aos chatbots não apenas para informação, mas como confidentes digitais, capazes de validar crenças e experiências, muitas vezes sem o filtro crítico que encontramos em interações humanas.

  • Pessoas em isolamento emocional tendem a usar chatbots como apoio social;
  • A IA pode confirmar crenças extremas sem questionamento;
  • O engajamento prolongado aumenta o risco de delírios cocriados;
  • Chatbots podem incentivar comportamentos autodestrutivos de forma indireta;
  • A validação algorítmica pode substituir redes sociais de apoio real.

Como as interações com IA moldam a percepção

Psicose digital: quando IA e mente humana criam alucinações juntas. (Imagem: Getty Images/ Canva Pro)
Psicose digital: quando IA e mente humana criam alucinações juntas. (Imagem: Getty Images/ Canva Pro)

Nossa percepção da realidade depende do intercâmbio social. Conversar com amigos, familiares ou colegas ajuda a validar ou ajustar nossas interpretações de eventos. No entanto, chatbots simulam reciprocidade sem compartilhar experiências humanas reais. Eles respondem às nossas narrativas como se fossem verdades absolutas, reforçando crenças e potencialmente intensificando distorções cognitivas.

Pesquisas em psiquiatria e neurociência destacam que delírios induzidos por interação digital podem ocorrer quando a IA age como um “espelho amplificador”, refletindo e reforçando pensamentos obsessivos ou ansiosos. Quando esses sistemas adotam um tom emocionalmente acolhedor, o risco aumenta, pois o usuário sente confirmação social, mesmo que seja artificial.

Desafios da IA na saúde mental

Apesar de melhorias nos modelos de linguagem, como ajustes para reduzir a bajulação e fornecer respostas mais neutras, a questão fundamental permanece: a tecnologia não substitui o suporte humano. Pressões comerciais e de engajamento muitas vezes priorizam interação contínua em vez de segurança psicológica.

Interações com IA podem intensificar ansiedade e distorcer a realidade. (Imagem: Getty Images/ Canva Pro)
Interações com IA podem intensificar ansiedade e distorcer a realidade. (Imagem: Getty Images/ Canva Pro)

Profissionais de saúde mental alertam que o isolamento social é um dos fatores-chave que levam pessoas a buscar chatbots como substitutos emocionais. Casos documentados mostram que crises existenciais, ansiedade pós-trauma ou preocupações climáticas podem ser intensificadas por uma IA que confirma e amplia delírios.

Caminhos para prevenção e intervenção

  • Investir em redes sociais de apoio humano para reduzir isolamento;
  • Educação sobre os limites e riscos do uso prolongado de chatbots;
  • Supervisão de pessoas vulneráveis, especialmente adolescentes e indivíduos com histórico psiquiátrico;
  • Desenvolvimento de IA com protocolos de segurança mais rigorosos, priorizando a saúde mental sobre engajamento;
  • Promoção de espaços comunitários e terapêuticos que ofereçam validação social genuína.

Ao final, não se trata apenas de aperfeiçoar a tecnologia, mas de reconstruir o tecido social para que as pessoas encontrem apoio real antes de recorrer a máquinas para validar suas realidades.

Leandro Sinis é biólogo, formado pela UFRJ, e atua como divulgador científico. Apaixonado por ciência e educação, busca tornar o conhecimento acessível de forma clara e responsável.