A maioria das IAs ainda não podem dizer as horas e nem ler calendário

A maioria das IAs ainda não podem dizer as horas e nem ler calendário

Uma nova pesquisa levanta um alerta surpreendente sobre os limites da inteligência artificial: modelos de IA de ponta ainda não conseguem ler um simples relógio analógico ou calcular corretamente o dia de uma data no calendário.

Isso mesmo, uma tarefa que aprendemos ainda na infância continua sendo um desafio significativo para sistemas avançados como o GPT-4o da OpenAI, o Gemini do Google, o Claude da Anthropic e o Llama da Meta.

Quando a inteligência artificial falha no básico

Durante a Conferência Internacional sobre Representações de Aprendizagem (ICLR) de 2025, pesquisadores apresentaram evidências de que a IA se atrapalha feio em tarefas simples do cotidiano. Segundo o estudo, os modelos testados acertaram a leitura correta de relógios em apenas 38,7% das vezes, e erraram ainda mais ao responder perguntas como “Qual o dia da semana do 153º dia do ano?”, acertando apenas 26,3% das vezes.

Além disso, essas deficiências foram documentadas em um artigo publicado no repositório arXiv, ainda em fase de revisão por pares e destacam algo fundamental:

“Essas deficiências precisam ser abordadas para que os sistemas de IA sejam integrados com sucesso a aplicações do mundo real, sensíveis ao tempo, como agendamento, automação e tecnologias assistivas”, afirmou Rohit Saxena, pesquisador da Universidade de Edimburgo.

Veja também:

Por que tarefas simples são tão complicadas para a IA?

Cabe ressaltar que, ao contrário dos computadores tradicionais, as IAs generativas não executam cálculos matemáticos reais.

“A aritmética é trivial para computadores tradicionais, mas não para grandes modelos de linguagem. A IA não executa algoritmos matemáticos, ela prevê os resultados com base em padrões que observa nos dados de treinamento”, explica Saxena.

Portanto, mesmo que a IA entenda o que é um relógio, o verdadeiro problema está no raciocínio espacial.

“O modelo precisa detectar ponteiros sobrepostos, medir ângulos e navegar por designs diversos, como algarismos romanos ou mostradores estilizados”, completa.

Dessa maneira, enquanto humanos reconhecem rapidamente ponteiros e números, a IA ainda engatinha nesse tipo de percepção. E com isso, surgem riscos reais de confiar demais na tecnologia para tarefas aparentemente simples.

O que isso revela sobre os limites da IA?

Vale destacar que a dificuldade em reconhecer padrões raros ou lidar com conceitos abstratos continua sendo um dos maiores desafios da IA atual. Isso porque os modelos dependem de grandes quantidades de dados representativos. Anos bissextos ou datas complexas, por exemplo, aparecem com pouca frequência nos conjuntos de dados e os modelos simplesmente não sabem o que fazer com isso.

Desse jeito, surge uma questão fundamental: estamos preparados para usar IA em contextos sensíveis ao tempo e à precisão? Saxena é claro ao responder:

“A IA é poderosa, mas quando as tarefas misturam percepção com raciocínio preciso, ainda precisamos de testes rigorosos, lógica de fallback e, em muitos casos, um humano no processo”, finalizou Saxena.

O futuro exige uma IA mais lógica e mais visual

Sendo assim, o estudo nos obriga a refletir sobre como treinamos e usamos a IA em contextos práticos. Por isso, os pesquisadores defendem o uso de dados mais específicos e treinamentos que desenvolvam não só a linguagem, mas também o raciocínio lógico e espacial dos modelos.

Em resumo, essa limitação nos lembra por que ainda não podemos depender completamente da IA. Porque, apesar de gerar textos, imagens e códigos com incrível qualidade, tarefas triviais para um ser humano seguem sendo obstáculos quase intransponíveis para as máquinas.

Leandro Sinis é biólogo, formado pela UFRJ, e atua como divulgador científico. Apaixonado por ciência e educação, busca tornar o conhecimento acessível de forma clara e responsável.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *