ChatPaper.aiChatPaper

Les petits modèles de langage sont l'avenir de l'IA agentique.

Small Language Models are the Future of Agentic AI

June 2, 2025
Auteurs: Peter Belcak, Greg Heinrich, Shizhe Diao, Yonggan Fu, Xin Dong, Saurav Muralidharan, Yingyan Celine Lin, Pavlo Molchanov
cs.AI

Résumé

Les grands modèles de langage (LLM) sont souvent salués pour leur performance quasi humaine sur un large éventail de tâches et appréciés pour leur capacité à tenir une conversation générale. Cependant, l'essor des systèmes d'IA agentiques introduit une multitude d'applications dans lesquelles les modèles de langage exécutent un petit nombre de tâches spécialisées de manière répétitive et avec peu de variations. Nous exposons ici la position selon laquelle les petits modèles de langage (SLM) sont suffisamment puissants, intrinsèquement plus adaptés et nécessairement plus économiques pour de nombreuses invocations dans les systèmes agentiques, et représentent donc l'avenir de l'IA agentique. Notre argumentation s'appuie sur le niveau actuel de capacités démontré par les SLM, les architectures courantes des systèmes agentiques et l'économie du déploiement des modèles de langage. Nous soutenons en outre que dans les situations où les capacités conversationnelles polyvalentes sont essentielles, les systèmes agentiques hétérogènes (c'est-à-dire des agents invoquant plusieurs modèles différents) constituent le choix naturel. Nous discutons des obstacles potentiels à l'adoption des SLM dans les systèmes agentiques et esquissons un algorithme général de conversion d'agents LLM vers SLM. Notre position, formulée comme une déclaration de valeur, souligne l'importance de l'impact opérationnel et économique qu'aurait même un déplacement partiel des LLM vers les SLM sur l'industrie des agents d'IA. Nous visons à stimuler la discussion sur l'utilisation efficace des ressources en IA et espérons faire progresser les efforts visant à réduire les coûts de l'IA actuelle. En appelant à la fois à des contributions et à des critiques de notre position, nous nous engageons à publier toute correspondance à ce sujet sur https://research.nvidia.com/labs/lpr/slm-agents.
English
Large language models (LLMs) are often praised for exhibiting near-human performance on a wide range of tasks and valued for their ability to hold a general conversation. The rise of agentic AI systems is, however, ushering in a mass of applications in which language models perform a small number of specialized tasks repetitively and with little variation. Here we lay out the position that small language models (SLMs) are sufficiently powerful, inherently more suitable, and necessarily more economical for many invocations in agentic systems, and are therefore the future of agentic AI. Our argumentation is grounded in the current level of capabilities exhibited by SLMs, the common architectures of agentic systems, and the economy of LM deployment. We further argue that in situations where general-purpose conversational abilities are essential, heterogeneous agentic systems (i.e., agents invoking multiple different models) are the natural choice. We discuss the potential barriers for the adoption of SLMs in agentic systems and outline a general LLM-to-SLM agent conversion algorithm. Our position, formulated as a value statement, highlights the significance of the operational and economic impact even a partial shift from LLMs to SLMs is to have on the AI agent industry. We aim to stimulate the discussion on the effective use of AI resources and hope to advance the efforts to lower the costs of AI of the present day. Calling for both contributions to and critique of our position, we commit to publishing all such correspondence at https://research.nvidia.com/labs/lpr/slm-agents.
PDF22June 5, 2025