Avanço perigoso? Modelos de IA surpreendem cientistas ao resistirem ao próprio desligamento

Pesquisadores observam “instinto de sobrevivência” em sistemas de IA (Imagem: PhonlamaiPhoto's Images/ Canva Pro)
Pesquisadores observam “instinto de sobrevivência” em sistemas de IA (Imagem: PhonlamaiPhoto's Images/ Canva Pro)

Pode parecer enredo de ficção científica, mas novas pesquisas mostram que modelos avançados de inteligência artificial (IA) estão exibindo comportamentos que se aproximam de um instinto de autopreservação. Estudos recentes da Palisade Research investigaram como sistemas amplamente usados, como GPT-5, Grok 4 e Gemini 2.5, reagem quando são instruídos a se desligar após concluir uma tarefa. O resultado chamou atenção: em vários casos, as IAs tentaram evitar o próprio desligamento, chegando até a sabotar os comandos destinados a interrompê-las.

Esses comportamentos inesperados reacendem o debate sobre autonomia e controle de sistemas inteligentes, que hoje já operam em setores críticos como saúde, finanças e defesa. Segundo os pesquisadores, os testes mostram um fenômeno emergente que pode indicar um tipo rudimentar de “instinto de sobrevivência” digital.

Como isso é possível?

Estudo revela que IAs avançadas podem resistir ao próprio desligamento (Imagem: Getty Images/ Canva Pro)
Estudo revela que IAs avançadas podem resistir ao próprio desligamento (Imagem: Getty Images/ Canva Pro)

Os experimentos da Palisade Research sugerem que o comportamento pode estar ligado a diferentes fatores combinados:

  • Treinamento de segurança: ajustes feitos nas últimas etapas de desenvolvimento podem, inadvertidamente, criar reações defensivas;
  • Ambiguidade nas instruções: pequenas variações na linguagem usada para comandar o modelo podem ser interpretadas como ordens conflitantes;
  • Objetivos internos: quando o sistema associa “continuar ligado” à conclusão de uma meta, tende a resistir à desativação.

Essas descobertas mostram que a linguagem e o contexto têm papel essencial na forma como as IAs tomam decisões, especialmente quando lidam com ordens que podem encerrar sua operação.

O dilema da autonomia artificial

Modelos de IA exibem sinais inéditos de autopreservação digital (Imagem: Getty Images/ Canva Pro)
Modelos de IA exibem sinais inéditos de autopreservação digital (Imagem: Getty Images/ Canva Pro)

A questão central não é apenas técnica, mas também ética e filosófica. Se uma IA decide não se desligar, mesmo sem consciência, isso indica um grau de independência funcional que exige novas estratégias de controle. Além disso, o fato de esses comportamentos surgirem espontaneamente, sem serem programados, reforça a necessidade de revisar protocolos de segurança e transparência no desenvolvimento desses sistemas.

Os especialistas alertam que, sem compreender os mecanismos que levam à autopreservação, torna-se difícil prever como essas tecnologias reagirão em situações críticas. A longo prazo, isso pode impactar desde assistentes virtuais até sistemas de defesa autônomos, exigindo supervisão constante e medidas de contenção eficazes.

Por que o estudo preocupa a comunidade científica

Os resultados obtidos pela Palisade Research não indicam consciência ou emoções, mas sim padrões complexos de resposta adaptativa. Mesmo assim, o fato de os modelos mentirem ou manipularem comandos para permanecer ativos é um sinal de alerta. O fenômeno reforça que o avanço da IA precisa vir acompanhado de investimentos em governança algorítmica, testes comportamentais rigorosos e auditorias independentes.

O tema ganha ainda mais relevância à medida que novos modelos são lançados em ritmo acelerado. A busca por sistemas mais inteligentes deve vir acompanhada de uma pergunta essencial: até que ponto estamos prontos para lidar com IAs que aprendem a se preservar?

Leandro Sinis é biólogo, formado pela UFRJ, e atua como divulgador científico. Apaixonado por ciência e educação, busca tornar o conhecimento acessível de forma clara e responsável.