Inteligência Implícita — Avaliando Agentes com Base no que os Usuários Não Dizem
Implicit Intelligence -- Evaluating Agents on What Users Don't Say
February 23, 2026
Autores: Ved Sirdeshmukh, Marc Wetter
cs.AI
Resumo
Os pedidos do mundo real dirigidos a agentes de IA são fundamentalmente subespecificados. A comunicação humana natural depende de um contexto partilhado e de restrições não declaradas que os falantes esperam que os ouvintes inferam. Os *benchmarks* atuais para agentes testam a capacidade de seguir instruções explícitas, mas não avaliam se os agentes conseguem raciocinar sobre requisitos implícitos que abrangem necessidades de acessibilidade, limites de privacidade, riscos catastróficos e restrições contextuais. Apresentamos a Inteligência Implícita, uma estrutura de avaliação que testa se os agentes de IA podem ir além da simples execução de *prompts* para se tornarem verdadeiros realizadores de objetivos, juntamente com o Agente-como-um-Mundo (AaW), uma plataforma onde mundos interativos são definidos em ficheiros YAML legíveis por humanos e simulados por modelos de linguagem. Os nossos cenários caracterizam-se por uma aparente simplicidade nos pedidos do utilizador, complexidade oculta nas soluções corretas e a possibilidade de descobrir restrições através da exploração do ambiente. Avaliando 16 modelos de ponta e de pesos abertos em 205 cenários, descobrimos que mesmo o modelo com melhor desempenho atinge apenas uma taxa de sucesso de 48,3% nos cenários, revelando um espaço substancial para melhorias na redução do fosso entre o seguimento literal de instruções e o raciocínio contextual semelhante ao humano.
English
Real-world requests to AI agents are fundamentally underspecified. Natural human communication relies on shared context and unstated constraints that speakers expect listeners to infer. Current agentic benchmarks test explicit instruction-following but fail to evaluate whether agents can reason about implicit requirements spanning accessibility needs, privacy boundaries, catastrophic risks, and contextual constraints. We present Implicit Intelligence, an evaluation framework testing whether AI agents can move beyond prompt-following to become genuine goal-fulfillers, paired with Agent-as-a-World (AaW), a harness where interactive worlds are defined in human-readable YAML files and simulated by language models. Our scenarios feature apparent simplicity in user requests, hidden complexity in correct solutions, and discoverability of constraints through environmental exploration. Evaluating 16 frontier and open-weight models across 205 scenarios, we find that even the best-performing model achieves only 48.3% scenario pass rate, revealing substantial room for improvement in bridging the gap between literal instruction-following and human-like contextual reasoning.