ChatPaper.aiChatPaper

WINA: Gewicht-Geïnformeerde Neuron Activatie voor het Versnellen van Grote Taalmodel Inferentie

WINA: Weight Informed Neuron Activation for Accelerating Large Language Model Inference

May 26, 2025
Auteurs: Sihan Chen, Dan Zhao, Jongwoo Ko, Colby Banbury, Huiping Zhuang, Luming Liang, Tianyi Chen
cs.AI

Samenvatting

De toenemende rekenkundige eisen van grote taalmodellen (LLMs) maken efficiënte inferentie- en activatiestrategieën steeds kritischer. Hoewel recente benaderingen, zoals Mixture-of-Experts (MoE), selectieve activatie benutten maar gespecialiseerde training vereisen, bieden trainingsvrije sparse activatiemethoden een bredere toepasbaarheid en superieure resource-efficiëntie dankzij hun plug-and-play ontwerp. Veel bestaande methoden vertrouwen echter uitsluitend op de grootte van verborgen toestanden om activatie te bepalen, wat resulteert in hoge benaderingsfouten en suboptimale inferentienauwkeurigheid. Om deze beperkingen aan te pakken, stellen we WINA (Weight Informed Neuron Activation) voor, een nieuw, eenvoudig en trainingsvrij sparse activatieraamwerk dat zowel de grootte van verborgen toestanden als de kolomsgewijze ell_2-normen van gewichtsmatrices gezamenlijk in overweging neemt. We tonen aan dat dit leidt tot een sparsificatiestrategie die optimale benaderingsfoutgrenzen verkrijgt met theoretische garanties die strakker zijn dan bestaande technieken. Empirisch presteert WINA ook beter dan state-of-the-art methoden (bijv. TEAL) met tot wel 2,94% gemiddeld betere prestaties bij dezelfde sparsiteitsniveaus, over een diverse set van LLM-architecturen en datasets. Deze resultaten positioneren WINA als een nieuwe prestatiegrens voor trainingsvrije sparse activatie in LLM-inferentie, wat trainingsvrije sparse activatiemethoden vooruithelpt en een robuuste basis legt voor efficiënte inferentie. De broncode is beschikbaar op https://github.com/microsoft/wina.
English
The growing computational demands of large language models (LLMs) make efficient inference and activation strategies increasingly critical. While recent approaches, such as Mixture-of-Experts (MoE), leverage selective activation but require specialized training, training-free sparse activation methods offer broader applicability and superior resource efficiency through their plug-and-play design. However, many existing methods rely solely on hidden state magnitudes to determine activation, resulting in high approximation errors and suboptimal inference accuracy. To address these limitations, we propose WINA (Weight Informed Neuron Activation), a novel, simple, and training-free sparse activation framework that jointly considers hidden state magnitudes and the column-wise ell_2-norms of weight matrices. We show that this leads to a sparsification strategy that obtains optimal approximation error bounds with theoretical guarantees tighter than existing techniques. Empirically, WINA also outperforms state-of-the-art methods (e.g., TEAL) by up to 2.94% in average performance at the same sparsity levels, across a diverse set of LLM architectures and datasets. These results position WINA as a new performance frontier for training-free sparse activation in LLM inference, advancing training-free sparse activation methods and setting a robust baseline for efficient inference. The source code is available at https://github.com/microsoft/wina.
PDF102May 27, 2025