ChatPaper.aiChatPaper

Малые языковые модели — это будущее агентного искусственного интеллекта.

Small Language Models are the Future of Agentic AI

June 2, 2025
Авторы: Peter Belcak, Greg Heinrich, Shizhe Diao, Yonggan Fu, Xin Dong, Saurav Muralidharan, Yingyan Celine Lin, Pavlo Molchanov
cs.AI

Аннотация

Крупные языковые модели (LLM) часто хвалят за их способность демонстрировать почти человеческий уровень производительности в широком спектре задач и ценят за их умение поддерживать общий диалог. Однако появление агентных систем искусственного интеллекта (ИИ) открывает множество приложений, в которых языковые модели выполняют небольшое количество специализированных задач повторяющимся образом и с минимальными вариациями. В данной работе мы утверждаем, что малые языковые модели (SLM) обладают достаточной мощностью, изначально более подходят и неизбежно более экономичны для многих применений в агентных системах, что делает их будущим агентного ИИ. Наши аргументы основаны на текущем уровне возможностей, демонстрируемых SLM, типичных архитектурах агентных систем и экономике развертывания языковых моделей. Мы также утверждаем, что в ситуациях, где важны универсальные способности к ведению диалога, гетерогенные агентные системы (т.е. системы, использующие несколько различных моделей) являются естественным выбором. Мы обсуждаем потенциальные барьеры для внедрения SLM в агентные системы и предлагаем общий алгоритм преобразования агентов с LLM в SLM. Наша позиция, сформулированная как ценностное утверждение, подчеркивает значимость операционного и экономического воздействия, которое даже частичный переход от LLM к SLM окажет на индустрию агентного ИИ. Мы стремимся стимулировать обсуждение эффективного использования ресурсов ИИ и надеемся способствовать усилиям по снижению затрат на современный ИИ. Призывая как к поддержке, так и к критике нашей позиции, мы обязуемся публиковать всю соответствующую переписку на сайте https://research.nvidia.com/labs/lpr/slm-agents.
English
Large language models (LLMs) are often praised for exhibiting near-human performance on a wide range of tasks and valued for their ability to hold a general conversation. The rise of agentic AI systems is, however, ushering in a mass of applications in which language models perform a small number of specialized tasks repetitively and with little variation. Here we lay out the position that small language models (SLMs) are sufficiently powerful, inherently more suitable, and necessarily more economical for many invocations in agentic systems, and are therefore the future of agentic AI. Our argumentation is grounded in the current level of capabilities exhibited by SLMs, the common architectures of agentic systems, and the economy of LM deployment. We further argue that in situations where general-purpose conversational abilities are essential, heterogeneous agentic systems (i.e., agents invoking multiple different models) are the natural choice. We discuss the potential barriers for the adoption of SLMs in agentic systems and outline a general LLM-to-SLM agent conversion algorithm. Our position, formulated as a value statement, highlights the significance of the operational and economic impact even a partial shift from LLMs to SLMs is to have on the AI agent industry. We aim to stimulate the discussion on the effective use of AI resources and hope to advance the efforts to lower the costs of AI of the present day. Calling for both contributions to and critique of our position, we commit to publishing all such correspondence at https://research.nvidia.com/labs/lpr/slm-agents.
PDF22June 5, 2025