ChatPaper.aiChatPaper

NeuralFuse: Aprendendo a Melhorar a Precisão da Inferência em Redes Neurais com Acesso Limitado em Regimes de Baixa Tensão

NeuralFuse: Learning to Improve the Accuracy of Access-Limited Neural Network Inference in Low-Voltage Regimes

June 29, 2023
Autores: Hao-Lun Sun, Lei Hsiung, Nandhini Chandramoorthy, Pin-Yu Chen, Tsung-Yi Ho
cs.AI

Resumo

Redes neurais profundas (DNNs) tornaram-se ubíquas no aprendizado de máquina, mas seu consumo de energia continua sendo um problema significativo. Reduzir a tensão de alimentação é uma estratégia eficaz para diminuir o consumo de energia. No entanto, reduzir agressivamente a tensão de alimentação pode levar à degradação da precisão devido a inversões aleatórias de bits na memória estática de acesso aleatório (SRAM), onde os parâmetros do modelo são armazenados. Para enfrentar esse desafio, apresentamos o NeuralFuse, um módulo adicional inovador que aborda a relação entre precisão e energia em regimes de baixa tensão, aprendendo transformações de entrada para gerar representações de dados resistentes a erros. O NeuralFuse protege a precisão das DNNs tanto em cenários nominais quanto de baixa tensão. Além disso, o NeuralFuse é de fácil implementação e pode ser prontamente aplicado a DNNs com acesso limitado, como hardware não configurável ou acesso remoto a APIs baseadas em nuvem. Resultados experimentais demonstram que, com uma taxa de erro de bits de 1%, o NeuralFuse pode reduzir a energia de acesso à memória SRAM em até 24%, enquanto melhora a precisão em até 57%. Até onde sabemos, esta é a primeira abordagem agnóstica ao modelo (ou seja, sem retreinamento do modelo) para lidar com erros de bits induzidos por baixa tensão. O código-fonte está disponível em https://github.com/IBM/NeuralFuse.
English
Deep neural networks (DNNs) have become ubiquitous in machine learning, but their energy consumption remains a notable issue. Lowering the supply voltage is an effective strategy for reducing energy consumption. However, aggressively scaling down the supply voltage can lead to accuracy degradation due to random bit flips in static random access memory (SRAM) where model parameters are stored. To address this challenge, we introduce NeuralFuse, a novel add-on module that addresses the accuracy-energy tradeoff in low-voltage regimes by learning input transformations to generate error-resistant data representations. NeuralFuse protects DNN accuracy in both nominal and low-voltage scenarios. Moreover, NeuralFuse is easy to implement and can be readily applied to DNNs with limited access, such as non-configurable hardware or remote access to cloud-based APIs. Experimental results demonstrate that, at a 1% bit error rate, NeuralFuse can reduce SRAM memory access energy by up to 24% while improving accuracy by up to 57%. To the best of our knowledge, this is the first model-agnostic approach (i.e., no model retraining) to address low-voltage-induced bit errors. The source code is available at https://github.com/IBM/NeuralFuse.
PDF50February 7, 2026