ChatPaper.aiChatPaper

TextQuests: ¿Qué tan buenos son los LLM en los videojuegos basados en texto?

TextQuests: How Good are LLMs at Text-Based Video Games?

July 31, 2025
Autores: Long Phan, Mantas Mazeika, Andy Zou, Dan Hendrycks
cs.AI

Resumen

Evaluar agentes de IA en entornos complejos e interactivos que reflejen desafíos del mundo real es fundamental para comprender sus capacidades prácticas. Si bien los puntos de referencia existentes para agentes evalúan eficazmente habilidades como el uso de herramientas o el desempeño en tareas estructuradas, a menudo no capturan por completo la capacidad de un agente para operar de manera autónoma en entornos exploratorios que exigen un razonamiento autodirigido y sostenido en un contexto extenso y en crecimiento. Para impulsar el desarrollo de agentes capaces de realizar un razonamiento intrínseco más robusto a largo plazo, presentamos TextQuests, un punto de referencia basado en la suite de ficción interactiva Infocom. Estas aventuras basadas en texto, que pueden llevar a los jugadores humanos más de 30 horas y requieren cientos de acciones precisas para resolverse, sirven como un proxy efectivo para evaluar agentes de IA en tareas enfocadas y con estado. El punto de referencia está diseñado específicamente para evaluar la capacidad de un agente de LLM para resolver problemas de manera autónoma, excluyendo el uso de herramientas externas, centrándose así en las capacidades intrínsecas de razonamiento en contextos largos dentro de un entorno exploratorio caracterizado por la necesidad de aprendizaje por ensayo y error y resolución sostenida de problemas en una única sesión interactiva. Publicamos TextQuests en https://textquests.ai.
English
Evaluating AI agents within complex, interactive environments that mirror real-world challenges is critical for understanding their practical capabilities. While existing agent benchmarks effectively assess skills like tool use or performance on structured tasks, they often do not fully capture an agent's ability to operate autonomously in exploratory environments that demand sustained, self-directed reasoning over a long and growing context. To spur the development of agents capable of more robust intrinsic reasoning over long horizons, we introduce TextQuests, a benchmark based on the Infocom suite of interactive fiction games. These text-based adventures, which can take human players over 30 hours and require hundreds of precise actions to solve, serve as an effective proxy for evaluating AI agents on focused, stateful tasks. The benchmark is specifically designed to assess an LLM agent's capacity for self-contained problem-solving by precluding the use of external tools, thereby focusing on intrinsic long-context reasoning capabilities in an exploratory environment characterized by the need for trial-and-error learning and sustained problem-solving within a single interactive session. We release TextQuests at https://textquests.ai.
PDF12August 12, 2025