ChatPaper.aiChatPaper

Pequenos Modelos de Linguagem são o Futuro da IA Agente.

Small Language Models are the Future of Agentic AI

June 2, 2025
Autores: Peter Belcak, Greg Heinrich, Shizhe Diao, Yonggan Fu, Xin Dong, Saurav Muralidharan, Yingyan Celine Lin, Pavlo Molchanov
cs.AI

Resumo

Os grandes modelos de linguagem (LLMs, na sigla em inglês) são frequentemente elogiados por exibir desempenho quase humano em uma ampla gama de tarefas e valorizados por sua capacidade de manter uma conversa geral. No entanto, o surgimento de sistemas de IA agentes está introduzindo uma série de aplicações em que os modelos de linguagem executam um pequeno número de tarefas especializadas de forma repetitiva e com pouca variação. Aqui, defendemos a posição de que os pequenos modelos de linguagem (SLMs, na sigla em inglês) são suficientemente poderosos, intrinsecamente mais adequados e necessariamente mais econômicos para muitas invocações em sistemas agentes e, portanto, representam o futuro da IA agente. Nossa argumentação é baseada no nível atual de capacidades exibidas pelos SLMs, nas arquiteturas comuns dos sistemas agentes e na economia de implantação de modelos de linguagem. Argumentamos ainda que, em situações em que habilidades conversacionais de propósito geral são essenciais, sistemas agentes heterogêneos (ou seja, agentes que invocam múltiplos modelos diferentes) são a escolha natural. Discutimos os possíveis obstáculos para a adoção de SLMs em sistemas agentes e delineamos um algoritmo geral de conversão de agentes LLM para SLM. Nossa posição, formulada como uma declaração de valor, destaca a importância do impacto operacional e econômico que mesmo uma mudança parcial de LLMs para SLMs terá na indústria de agentes de IA. Nosso objetivo é estimular a discussão sobre o uso eficiente de recursos de IA e esperamos avançar os esforços para reduzir os custos da IA atual. Convidamos tanto contribuições quanto críticas à nossa posição e nos comprometemos a publicar toda essa correspondência em https://research.nvidia.com/labs/lpr/slm-agents.
English
Large language models (LLMs) are often praised for exhibiting near-human performance on a wide range of tasks and valued for their ability to hold a general conversation. The rise of agentic AI systems is, however, ushering in a mass of applications in which language models perform a small number of specialized tasks repetitively and with little variation. Here we lay out the position that small language models (SLMs) are sufficiently powerful, inherently more suitable, and necessarily more economical for many invocations in agentic systems, and are therefore the future of agentic AI. Our argumentation is grounded in the current level of capabilities exhibited by SLMs, the common architectures of agentic systems, and the economy of LM deployment. We further argue that in situations where general-purpose conversational abilities are essential, heterogeneous agentic systems (i.e., agents invoking multiple different models) are the natural choice. We discuss the potential barriers for the adoption of SLMs in agentic systems and outline a general LLM-to-SLM agent conversion algorithm. Our position, formulated as a value statement, highlights the significance of the operational and economic impact even a partial shift from LLMs to SLMs is to have on the AI agent industry. We aim to stimulate the discussion on the effective use of AI resources and hope to advance the efforts to lower the costs of AI of the present day. Calling for both contributions to and critique of our position, we commit to publishing all such correspondence at https://research.nvidia.com/labs/lpr/slm-agents.
PDF42June 5, 2025