IA não substitui humanos: Inteligência artificial ainda não consegue substituir profissionais de verdade, aponta estudo

IA não substitui humanos: modelos acertam menos de 30% das tarefas (Imagem: Africa Images via Canva)
IA não substitui humanos: modelos acertam menos de 30% das tarefas (Imagem: Africa Images via Canva)

Apesar do avanço rápido da inteligência artificial, um estudo recente publicado pelo AI Productivity Index for Agents (APEX-Agents) mostra que os modelos mais avançados, como GPT-5.2 e Gemini 3 Flash, não conseguem executar mais do que 30% das tarefas típicas de profissionais especializados.

O levantamento analisou desempenhos em três áreas altamente técnicas: consultoria de gestão, análise de investimentos e direito corporativo. Os resultados indicam que, mesmo com grandes promessas de automação, os agentes de IA ainda apresentam limitações significativas quando confrontados com situações que exigem interpretação complexa e integração de informações de múltiplas fontes. Principais resultados do estudo:

  • Analistas de investimentos: GPT-5.2 atingiu 27,3% de acertos; Gemini 3 Flash, 26,7%;
  • Consultoria de gestão: GPT-5.2 obteve 22,7% de respostas corretas;
  • Advogados corporativos: Gemini 3 Flash liderou com 25,9%.

Esses dados destacam que nenhum modelo alcançou 30% de acerto em qualquer área testada, reforçando que a substituição completa de profissionais humanos ainda está distante.

Por que os modelos de IA falham?

GPT-5.2 e Gemini 3 falham em trabalhos complexos de profissionais (Imagem: Getty Images via Canva)
GPT-5.2 e Gemini 3 falham em trabalhos complexos de profissionais (Imagem: Getty Images via Canva)

O APEX-Agents se diferencia de benchmarks tradicionais porque simula cenários reais de trabalho, usando prompts enviados por especialistas. Isso significa que os agentes de IA enfrentam desafios que vão além de tarefas isoladas: eles precisam integrar informações de múltiplos domínios e fontes, como documentos internos, planilhas e dados de clientes. As principais dificuldades incluem:

  • Integração de informações dispersas: IA não consegue combinar dados de diferentes ferramentas de forma confiável;
  • Contexto complexo: Muitos casos exigem análise legal, regulatória ou financeira detalhada, algo que vai além de simples respostas textuais;
  • Decisões críticas: Situações reais demandam julgamento e experiência, algo que a IA ainda não domina.

Cenários de teste e relevância para o mercado

Entre os desafios incluídos no estudo, estavam situações como o tratamento de dados pessoais de cidadãos europeus conforme a legislação de privacidade da UE, uma tarefa que exige compreensão de normas complexas e análise contextual detalhada.

Esses testes evidenciam que, mesmo com avanços rápidos em modelos de linguagem e aprendizado de máquina, a IA atual ainda não é confiável para substituir profissionais humanos em tarefas críticas, sendo mais adequada como auxílio ou suporte para decisões do dia a dia.

Leandro Sinis é biólogo, formado pela UFRJ, e atua como divulgador científico. Apaixonado por ciência e educação, busca tornar o conhecimento acessível de forma clara e responsável.