Los Modelos de Lenguaje Pequeños son el Futuro de la IA Agéntica.
Small Language Models are the Future of Agentic AI
June 2, 2025
Autores: Peter Belcak, Greg Heinrich, Shizhe Diao, Yonggan Fu, Xin Dong, Saurav Muralidharan, Yingyan Celine Lin, Pavlo Molchanov
cs.AI
Resumen
Los modelos de lenguaje grandes (LLMs, por sus siglas en inglés) son frecuentemente elogiados por exhibir un rendimiento cercano al humano en una amplia gama de tareas y valorados por su capacidad para mantener conversaciones generales. Sin embargo, el auge de los sistemas de IA agentes está dando lugar a una gran cantidad de aplicaciones en las que los modelos de lenguaje realizan un número reducido de tareas especializadas de manera repetitiva y con poca variación.
Aquí presentamos la postura de que los modelos de lenguaje pequeños (SLMs, por sus siglas en inglés) son lo suficientemente potentes, inherentemente más adecuados y necesariamente más económicos para muchas invocaciones en sistemas agentes, y por lo tanto, representan el futuro de la IA agente. Nuestra argumentación se basa en el nivel actual de capacidades exhibido por los SLMs, las arquitecturas comunes de los sistemas agentes y la economía del despliegue de modelos de lenguaje. Además, argumentamos que en situaciones donde las habilidades conversacionales de propósito general son esenciales, los sistemas agentes heterogéneos (es decir, agentes que invocan múltiples modelos diferentes) son la elección natural. Discutimos los posibles obstáculos para la adopción de SLMs en sistemas agentes y delineamos un algoritmo general de conversión de agentes de LLM a SLM.
Nuestra postura, formulada como una declaración de valor, destaca la importancia del impacto operativo y económico que incluso un cambio parcial de LLMs a SLMs tendría en la industria de agentes de IA. Nuestro objetivo es estimular la discusión sobre el uso efectivo de los recursos de IA y esperamos avanzar en los esfuerzos para reducir los costos de la IA actual. Invitando tanto a contribuciones como a críticas de nuestra postura, nos comprometemos a publicar toda correspondencia en https://research.nvidia.com/labs/lpr/slm-agents.
English
Large language models (LLMs) are often praised for exhibiting near-human
performance on a wide range of tasks and valued for their ability to hold a
general conversation. The rise of agentic AI systems is, however, ushering in a
mass of applications in which language models perform a small number of
specialized tasks repetitively and with little variation.
Here we lay out the position that small language models (SLMs) are
sufficiently powerful, inherently more suitable, and necessarily more
economical for many invocations in agentic systems, and are therefore the
future of agentic AI. Our argumentation is grounded in the current level of
capabilities exhibited by SLMs, the common architectures of agentic systems,
and the economy of LM deployment. We further argue that in situations where
general-purpose conversational abilities are essential, heterogeneous agentic
systems (i.e., agents invoking multiple different models) are the natural
choice. We discuss the potential barriers for the adoption of SLMs in agentic
systems and outline a general LLM-to-SLM agent conversion algorithm.
Our position, formulated as a value statement, highlights the significance of
the operational and economic impact even a partial shift from LLMs to SLMs is
to have on the AI agent industry. We aim to stimulate the discussion on the
effective use of AI resources and hope to advance the efforts to lower the
costs of AI of the present day. Calling for both contributions to and critique
of our position, we commit to publishing all such correspondence at
https://research.nvidia.com/labs/lpr/slm-agents.