ChatPaper.aiChatPaper

WINA: Ativação de Neurônios Informada por Peso para Acelerar a Inferência de Modelos de Linguagem de Grande Escala

WINA: Weight Informed Neuron Activation for Accelerating Large Language Model Inference

May 26, 2025
Autores: Sihan Chen, Dan Zhao, Jongwoo Ko, Colby Banbury, Huiping Zhuang, Luming Liang, Tianyi Chen
cs.AI

Resumo

As crescentes demandas computacionais de grandes modelos de linguagem (LLMs) tornam estratégias eficientes de inferência e ativação cada vez mais críticas. Embora abordagens recentes, como Mixture-of-Experts (MoE), aproveitem a ativação seletiva, elas exigem treinamento especializado, enquanto métodos de ativação esparsa sem treinamento oferecem maior aplicabilidade e eficiência de recursos por meio de seu design plug-and-play. No entanto, muitos métodos existentes dependem exclusivamente das magnitudes dos estados ocultos para determinar a ativação, resultando em altos erros de aproximação e precisão de inferência subótima. Para abordar essas limitações, propomos o WINA (Weight Informed Neuron Activation), uma nova estrutura de ativação esparsa simples e sem treinamento que considera conjuntamente as magnitudes dos estados ocultos e as normas ell_2 coluna a coluna das matrizes de pesos. Demonstramos que isso leva a uma estratégia de esparsificação que obtém limites de erro de aproximação ótimos com garantias teóricas mais rigorosas do que as técnicas existentes. Empiricamente, o WINA também supera métodos state-of-the-art (por exemplo, TEAL) em até 2,94% no desempenho médio nos mesmos níveis de esparsidade, em um conjunto diversificado de arquiteturas de LLMs e conjuntos de dados. Esses resultados posicionam o WINA como uma nova fronteira de desempenho para ativação esparsa sem treinamento na inferência de LLMs, avançando os métodos de ativação esparsa sem treinamento e estabelecendo uma linha de base robusta para inferência eficiente. O código-fonte está disponível em https://github.com/microsoft/wina.
English
The growing computational demands of large language models (LLMs) make efficient inference and activation strategies increasingly critical. While recent approaches, such as Mixture-of-Experts (MoE), leverage selective activation but require specialized training, training-free sparse activation methods offer broader applicability and superior resource efficiency through their plug-and-play design. However, many existing methods rely solely on hidden state magnitudes to determine activation, resulting in high approximation errors and suboptimal inference accuracy. To address these limitations, we propose WINA (Weight Informed Neuron Activation), a novel, simple, and training-free sparse activation framework that jointly considers hidden state magnitudes and the column-wise ell_2-norms of weight matrices. We show that this leads to a sparsification strategy that obtains optimal approximation error bounds with theoretical guarantees tighter than existing techniques. Empirically, WINA also outperforms state-of-the-art methods (e.g., TEAL) by up to 2.94% in average performance at the same sparsity levels, across a diverse set of LLM architectures and datasets. These results position WINA as a new performance frontier for training-free sparse activation in LLM inference, advancing training-free sparse activation methods and setting a robust baseline for efficient inference. The source code is available at https://github.com/microsoft/wina.
PDF112December 16, 2025