ChatPaper.aiChatPaper

Een overzicht van inferentie-engines voor grote taalmodelen: perspectieven op optimalisatie en efficiëntie

A Survey on Inference Engines for Large Language Models: Perspectives on Optimization and Efficiency

May 3, 2025
Auteurs: Sihyeong Park, Sungryeol Jeon, Chaelyn Lee, Seokhun Jeon, Byung-Soo Kim, Jemin Lee
cs.AI

Samenvatting

Grote taalmodellen (LLMs) worden veelvuldig toegepast in chatbots, codegeneratoren en zoekmachines. Workloads zoals chain-of-thought, complex redeneren en agentservices verhogen de inferentiekosten aanzienlijk door het model herhaaldelijk aan te roepen. Optimalisatiemethoden zoals parallelisatie, compressie en caching zijn ingezet om de kosten te verlagen, maar de diverse servicerequirements maken het moeilijk om de juiste methode te selecteren. Recent zijn gespecialiseerde LLM-inferentie-engines opgekomen als een cruciaal onderdeel voor het integreren van de optimalisatiemethoden in servicegerichte infrastructuur. Een systematische studie naar inferentie-engines ontbreekt echter nog. Dit paper biedt een uitgebreide evaluatie van 25 open-source en commerciële inferentie-engines. We onderzoeken elke inferentie-engine op gebruiksvriendelijkheid, implementatiegemak, ondersteuning voor algemene doeleinden, schaalbaarheid en geschiktheid voor doorvoer- en latentiebewuste berekeningen. Daarnaast verkennen we de ontwerpdoelen van elke inferentie-engine door de ondersteunde optimalisatietechnieken te onderzoeken. Bovendien beoordelen we de ecosysteemrijpheid van open-source inferentie-engines en behandelen we het prestatie- en kostenbeleid van commerciële oplossingen. We schetsen toekomstige onderzoeksrichtingen, waaronder ondersteuning voor complexe LLM-gebaseerde services, ondersteuning van diverse hardware en verbeterde beveiliging, en bieden praktische richtlijnen voor onderzoekers en ontwikkelaars bij het selecteren en ontwerpen van geoptimaliseerde LLM-inferentie-engines. We bieden ook een openbare repository om ontwikkelingen in dit snel evoluerende veld continu te volgen: https://github.com/sihyeong/Awesome-LLM-Inference-Engine.
English
Large language models (LLMs) are widely applied in chatbots, code generators, and search engines. Workloads such as chain-of-thought, complex reasoning, and agent services significantly increase the inference cost by invoking the model repeatedly. Optimization methods such as parallelism, compression, and caching have been adopted to reduce costs, but the diverse service requirements make it hard to select the right method. Recently, specialized LLM inference engines have emerged as a key component for integrating the optimization methods into service-oriented infrastructures. However, a systematic study on inference engines is still lacking. This paper provides a comprehensive evaluation of 25 open-source and commercial inference engines. We examine each inference engine in terms of ease-of-use, ease-of-deployment, general-purpose support, scalability, and suitability for throughput- and latency-aware computation. Furthermore, we explore the design goals of each inference engine by investigating the optimization techniques it supports. In addition, we assess the ecosystem maturity of open source inference engines and handle the performance and cost policy of commercial solutions. We outline future research directions that include support for complex LLM-based services, support of various hardware, and enhanced security, offering practical guidance to researchers and developers in selecting and designing optimized LLM inference engines. We also provide a public repository to continually track developments in this fast-evolving field: https://github.com/sihyeong/Awesome-LLM-Inference-Engine
PDF364May 6, 2025