ChatPaper.aiChatPaper

Implizite Intelligenz – Die Bewertung von Agenten anhand dessen, was Nutzer nicht sagen

Implicit Intelligence -- Evaluating Agents on What Users Don't Say

February 23, 2026
Autoren: Ved Sirdeshmukh, Marc Wetter
cs.AI

Zusammenfassung

Echte Anfragen an KI-Agenten sind grundsätzlich unterbestimmt. Natürliche menschliche Kommunikation baut auf geteiltem Kontext und unausgesprochenen Randbedingungen auf, von denen Sprecher erwarten, dass Zuhörer sie erschließen. Bestehende agentenbasierte Benchmarks testen die Befolgung expliziter Anweisungen, bewerten jedoch nicht, ob Agenten implizite Anforderungen bezüglich Barrierefreiheit, Privatsphäre, katastrophaler Risiken und kontextueller Einschränkungen erfassen können. Wir stellen Implicit Intelligence vor, ein Evaluierungsframework, das prüft, ob KI-Agenten über reine Prompt-Befolgung hinaus zu echten Zielerfüllern werden können, ergänzt durch Agent-as-a-World (AaW), eine Testumgebung, in der interaktive Welten in menschenlesbaren YAML-Dateien definiert und durch Sprachmodelle simuliert werden. Unsere Szenarien zeichnen sich durch scheinbare Einfachheit in Nutzeranfragen, verborgene Komplexität in korrekten Lösungen und die Entdeckbarkeit von Randbedingungen durch Umgebungsexploration aus. Die Auswertung von 16 führenden und Open-Weight-Modellen über 205 Szenarien hinweg zeigt, dass selbst das leistungsstärkste Modell nur eine Szenario-Erfolgsquote von 48,3 % erreicht, was erhebliches Verbesserungspotenzial bei der Überbrückung der Lücke zwischen buchstabengetreuer Anweisungsbefolgung und menschenähnlichem kontextuellem Denken offenbart.
English
Real-world requests to AI agents are fundamentally underspecified. Natural human communication relies on shared context and unstated constraints that speakers expect listeners to infer. Current agentic benchmarks test explicit instruction-following but fail to evaluate whether agents can reason about implicit requirements spanning accessibility needs, privacy boundaries, catastrophic risks, and contextual constraints. We present Implicit Intelligence, an evaluation framework testing whether AI agents can move beyond prompt-following to become genuine goal-fulfillers, paired with Agent-as-a-World (AaW), a harness where interactive worlds are defined in human-readable YAML files and simulated by language models. Our scenarios feature apparent simplicity in user requests, hidden complexity in correct solutions, and discoverability of constraints through environmental exploration. Evaluating 16 frontier and open-weight models across 205 scenarios, we find that even the best-performing model achieves only 48.3% scenario pass rate, revealing substantial room for improvement in bridging the gap between literal instruction-following and human-like contextual reasoning.
PDF41March 28, 2026