ChatPaper.aiChatPaper

I Piccoli Modelli Linguistici sono il Futuro dell'IA Agente

Small Language Models are the Future of Agentic AI

June 2, 2025
Autori: Peter Belcak, Greg Heinrich, Shizhe Diao, Yonggan Fu, Xin Dong, Saurav Muralidharan, Yingyan Celine Lin, Pavlo Molchanov
cs.AI

Abstract

I modelli linguistici di grandi dimensioni (LLM) sono spesso lodati per la loro capacità di ottenere prestazioni quasi umane in un'ampia gamma di compiti e apprezzati per la loro abilità di sostenere una conversazione generale. Tuttavia, l'ascesa dei sistemi di intelligenza artificiale agentica sta introducendo una moltitudine di applicazioni in cui i modelli linguistici eseguono un numero limitato di compiti specializzati in modo ripetitivo e con poche variazioni. Qui sosteniamo la posizione secondo cui i modelli linguistici di piccole dimensioni (SLM) sono sufficientemente potenti, intrinsecamente più adatti e necessariamente più economici per molte invocazioni nei sistemi agentici, rappresentando quindi il futuro dell'IA agentica. La nostra argomentazione si basa sulle attuali capacità dimostrate dagli SLM, sulle architetture comuni dei sistemi agentici e sull'economia del dispiegamento dei modelli linguistici. Inoltre, sosteniamo che, in situazioni in cui le capacità conversazionali generali sono essenziali, i sistemi agentici eterogenei (ovvero agenti che invocano più modelli diversi) rappresentano la scelta naturale. Discutiamo le potenziali barriere all'adozione degli SLM nei sistemi agentici e delineiamo un algoritmo generale per la conversione da LLM a SLM negli agenti. La nostra posizione, formulata come una dichiarazione di valore, evidenzia l'importanza dell'impatto operativo ed economico che anche un parziale passaggio dagli LLM agli SLM avrà sull'industria degli agenti IA. Miriamo a stimolare la discussione sull'uso efficace delle risorse di IA e speriamo di contribuire agli sforzi per ridurre i costi dell'IA odierna. Invitando sia contributi che critiche alla nostra posizione, ci impegniamo a pubblicare tutta la corrispondenza su https://research.nvidia.com/labs/lpr/slm-agents.
English
Large language models (LLMs) are often praised for exhibiting near-human performance on a wide range of tasks and valued for their ability to hold a general conversation. The rise of agentic AI systems is, however, ushering in a mass of applications in which language models perform a small number of specialized tasks repetitively and with little variation. Here we lay out the position that small language models (SLMs) are sufficiently powerful, inherently more suitable, and necessarily more economical for many invocations in agentic systems, and are therefore the future of agentic AI. Our argumentation is grounded in the current level of capabilities exhibited by SLMs, the common architectures of agentic systems, and the economy of LM deployment. We further argue that in situations where general-purpose conversational abilities are essential, heterogeneous agentic systems (i.e., agents invoking multiple different models) are the natural choice. We discuss the potential barriers for the adoption of SLMs in agentic systems and outline a general LLM-to-SLM agent conversion algorithm. Our position, formulated as a value statement, highlights the significance of the operational and economic impact even a partial shift from LLMs to SLMs is to have on the AI agent industry. We aim to stimulate the discussion on the effective use of AI resources and hope to advance the efforts to lower the costs of AI of the present day. Calling for both contributions to and critique of our position, we commit to publishing all such correspondence at https://research.nvidia.com/labs/lpr/slm-agents.
PDF102June 5, 2025