Kleine Taalmodellen zijn de Toekomst van Agent-gebaseerde AI
Small Language Models are the Future of Agentic AI
June 2, 2025
Auteurs: Peter Belcak, Greg Heinrich, Shizhe Diao, Yonggan Fu, Xin Dong, Saurav Muralidharan, Yingyan Celine Lin, Pavlo Molchanov
cs.AI
Samenvatting
Grote taalmodellen (LLM's) worden vaak geprezen vanwege hun bijna menselijke prestaties op een breed scala aan taken en gewaardeerd om hun vermogen om een algemeen gesprek te voeren. De opkomst van agent-gebaseerde AI-systemen brengt echter een massa toepassingen met zich mee waarin taalmodellen een beperkt aantal gespecialiseerde taken repetitief en met weinig variatie uitvoeren.
Hier betogen wij dat kleine taalmodellen (SLM's) krachtig genoeg zijn, inherent geschikter en noodzakelijkerwijs economischer zijn voor veel aanroepingen in agent-systemen, en daarom de toekomst vormen van agent-gebaseerde AI. Onze argumentatie is gebaseerd op het huidige niveau van capaciteiten dat SLM's tentoonspreiden, de gangbare architectuur van agent-systemen en de economie van LM-implementatie. Wij stellen verder dat in situaties waar algemene gespreksvaardigheden essentieel zijn, heterogene agent-systemen (d.w.z. agents die meerdere verschillende modellen aanroepen) de natuurlijke keuze zijn. Wij bespreken de potentiële barrières voor de adoptie van SLM's in agent-systemen en schetsen een algemeen LLM-naar-SLM agent-conversie-algoritme.
Onze positie, geformuleerd als een waardestelling, benadrukt het belang van de operationele en economische impact die zelfs een gedeeltelijke verschuiving van LLM's naar SLM's zal hebben op de AI-agentindustrie. Wij streven ernaar de discussie over het effectieve gebruik van AI-bronnen te stimuleren en hopen de inspanningen om de kosten van hedendaagse AI te verlagen te bevorderen. Wij roepen zowel op tot bijdragen als tot kritiek op onze positie en verbinden ons ertoe alle correspondentie hierover te publiceren op https://research.nvidia.com/labs/lpr/slm-agents.
English
Large language models (LLMs) are often praised for exhibiting near-human
performance on a wide range of tasks and valued for their ability to hold a
general conversation. The rise of agentic AI systems is, however, ushering in a
mass of applications in which language models perform a small number of
specialized tasks repetitively and with little variation.
Here we lay out the position that small language models (SLMs) are
sufficiently powerful, inherently more suitable, and necessarily more
economical for many invocations in agentic systems, and are therefore the
future of agentic AI. Our argumentation is grounded in the current level of
capabilities exhibited by SLMs, the common architectures of agentic systems,
and the economy of LM deployment. We further argue that in situations where
general-purpose conversational abilities are essential, heterogeneous agentic
systems (i.e., agents invoking multiple different models) are the natural
choice. We discuss the potential barriers for the adoption of SLMs in agentic
systems and outline a general LLM-to-SLM agent conversion algorithm.
Our position, formulated as a value statement, highlights the significance of
the operational and economic impact even a partial shift from LLMs to SLMs is
to have on the AI agent industry. We aim to stimulate the discussion on the
effective use of AI resources and hope to advance the efforts to lower the
costs of AI of the present day. Calling for both contributions to and critique
of our position, we commit to publishing all such correspondence at
https://research.nvidia.com/labs/lpr/slm-agents.