ChatPaper.aiChatPaper

Beneficios Demostrables del Aprendizaje Integrado en Herramientas para Modelos de Lenguaje a Gran Escala

Provable Benefits of In-Tool Learning for Large Language Models

August 28, 2025
Autores: Sam Houliston, Ambroise Odonnat, Charles Arnal, Vivien Cabannes
cs.AI

Resumen

Los modelos de lenguaje aumentados con herramientas, equipados con recuperación, memoria o APIs externas, están transformando la IA, aunque sus ventajas teóricas siguen siendo poco exploradas. En este artículo, abordamos esta cuestión demostrando los beneficios del aprendizaje con herramientas (recuperación externa) sobre el aprendizaje en pesos (memorización) para el recuerdo de hechos. Mostramos que el número de hechos que un modelo puede memorizar únicamente en sus pesos está fundamentalmente limitado por su cantidad de parámetros. En contraste, demostramos que el uso de herramientas permite un recuerdo ilimitado de hechos mediante una construcción de circuitos simple y eficiente. Estos resultados se validan en experimentos controlados, donde los modelos que utilizan herramientas superan consistentemente a los que dependen de la memorización. Además, mostramos que, para modelos de lenguaje preentrenados a gran escala, enseñar el uso de herramientas y reglas generales es más efectivo que ajustar hechos en la memoria. Nuestro trabajo proporciona una base tanto teórica como empírica, estableciendo por qué los flujos de trabajo aumentados con herramientas no solo son prácticos, sino también demostrablemente más escalables.
English
Tool-augmented language models, equipped with retrieval, memory, or external APIs, are reshaping AI, yet their theoretical advantages remain underexplored. In this paper, we address this question by demonstrating the benefits of in-tool learning (external retrieval) over in-weight learning (memorization) for factual recall. We show that the number of facts a model can memorize solely in its weights is fundamentally limited by its parameter count. In contrast, we prove that tool-use enables unbounded factual recall via a simple and efficient circuit construction. These results are validated in controlled experiments, where tool-using models consistently outperform memorizing ones. We further show that for pretrained large language models, teaching tool-use and general rules is more effective than finetuning facts into memory. Our work provides both a theoretical and empirical foundation, establishing why tool-augmented workflows are not just practical, but provably more scalable.
PDF52August 29, 2025