ChatPaper.aiChatPaper

Inteligencia implícita: Evaluación de agentes en función de lo que los usuarios no dicen

Implicit Intelligence -- Evaluating Agents on What Users Don't Say

February 23, 2026
Autores: Ved Sirdeshmukh, Marc Wetter
cs.AI

Resumen

Las solicitudes del mundo real dirigidas a agentes de IA son fundamentalmente imprecisas. La comunicación humana natural se basa en un contexto compartido y restricciones no expresadas que los hablantes esperan que los oyentes infieran. Los puntos de referencia actuales para agentes evalúan el seguimiento de instrucciones explícitas, pero no logran evaluar si los agentes pueden razonar sobre requisitos implícitos que abarcan necesidades de accesibilidad, límites de privacidad, riesgos catastróficos y restricciones contextuales. Presentamos Inteligencia Implícita, un marco de evaluación que prueba si los agentes de IA pueden ir más allá del seguimiento de indicaciones para convertirse en verdaderos cumplidores de objetivos, junto con Agente-como-Mundo (AaW), un entorno donde los mundos interactivos se definen en archivos YAML legibles por humanos y son simulados por modelos de lenguaje. Nuestros escenarios presentan una aparente simplicidad en las solicitudes del usuario, una complejidad oculta en las soluciones correctas y la capacidad de descubrir restricciones mediante la exploración ambiental. Al evaluar 16 modelos de vanguardia y de pesos abiertos en 205 escenarios, encontramos que incluso el modelo con mejor rendimiento alcanza solo un 48.3% de tasa de aprobación de escenarios, lo que revela un margen sustancial de mejora para cerrar la brecha entre el seguimiento literal de instrucciones y el razonamiento contextual similar al humano.
English
Real-world requests to AI agents are fundamentally underspecified. Natural human communication relies on shared context and unstated constraints that speakers expect listeners to infer. Current agentic benchmarks test explicit instruction-following but fail to evaluate whether agents can reason about implicit requirements spanning accessibility needs, privacy boundaries, catastrophic risks, and contextual constraints. We present Implicit Intelligence, an evaluation framework testing whether AI agents can move beyond prompt-following to become genuine goal-fulfillers, paired with Agent-as-a-World (AaW), a harness where interactive worlds are defined in human-readable YAML files and simulated by language models. Our scenarios feature apparent simplicity in user requests, hidden complexity in correct solutions, and discoverability of constraints through environmental exploration. Evaluating 16 frontier and open-weight models across 205 scenarios, we find that even the best-performing model achieves only 48.3% scenario pass rate, revealing substantial room for improvement in bridging the gap between literal instruction-following and human-like contextual reasoning.
PDF41March 28, 2026