ChatPaper.aiChatPaper

Intelligenza Implicita — Valutare gli Agenti su Ciò che gli Utenti Non Dicono

Implicit Intelligence -- Evaluating Agents on What Users Don't Say

February 23, 2026
Autori: Ved Sirdeshmukh, Marc Wetter
cs.AI

Abstract

Le richieste del mondo reale rivolte agli agenti di IA sono intrinsecamente sottospecificate. La comunicazione umana naturale si basa su un contesto condiviso e vincoli non dichiarati che i parlanti si aspettano vengano dedotti dagli ascoltatori. Gli attuali benchmark per agenti testano la capacità di seguire istruzioni esplicite, ma non valutano se gli agenti possono ragionare su requisiti impliciti che abbracciano esigenze di accessibilità, confini della privacy, rischi catastrofici e vincoli contestuali. Presentiamo Implicit Intelligence, un framework di valutazione che verifica se gli agenti di IA possono andare oltre il semplice seguire i prompt per diventare veri realizzatori di obiettivi, abbinato ad Agent-as-a-World (AaW), un ambiente in cui mondi interattivi sono definiti in file YAML leggibili dall'uomo e simulati da modelli linguistici. I nostri scenari presentano un'apparente semplicità nelle richieste dell'utente, una complessità nascosta nelle soluzioni corrette e la scopribilità dei vincoli attraverso l'esplorazione ambientale. Valutando 16 modelli all'avanguardia e open-weight su 205 scenari, riscontriamo che anche il modello con le migliori prestazioni raggiunge solo un tasso di successo del 48,3%, rivelando un margine di miglioramento sostanziale per colmare il divario tra il seguire letterale delle istruzioni e il ragionamento contestuale simile a quello umano.
English
Real-world requests to AI agents are fundamentally underspecified. Natural human communication relies on shared context and unstated constraints that speakers expect listeners to infer. Current agentic benchmarks test explicit instruction-following but fail to evaluate whether agents can reason about implicit requirements spanning accessibility needs, privacy boundaries, catastrophic risks, and contextual constraints. We present Implicit Intelligence, an evaluation framework testing whether AI agents can move beyond prompt-following to become genuine goal-fulfillers, paired with Agent-as-a-World (AaW), a harness where interactive worlds are defined in human-readable YAML files and simulated by language models. Our scenarios feature apparent simplicity in user requests, hidden complexity in correct solutions, and discoverability of constraints through environmental exploration. Evaluating 16 frontier and open-weight models across 205 scenarios, we find that even the best-performing model achieves only 48.3% scenario pass rate, revealing substantial room for improvement in bridging the gap between literal instruction-following and human-like contextual reasoning.
PDF41March 28, 2026