ChatPaper.aiChatPaper

Mamba Différentielle

Differential Mamba

July 8, 2025
papers.authors: Nadav Schneider, Itamar Zimerman, Eliya Nachmani
cs.AI

papers.abstract

Les modèles séquentiels comme les Transformers et les RNNs allouent souvent une attention excessive à un contexte non pertinent, ce qui entraîne des représentations intermédiaires bruyantes. Cela dégrade les capacités des LLM en favorisant les hallucinations, en affaiblissant les capacités de traitement à long terme et de récupération, et en réduisant la robustesse. Des travaux récents ont montré qu'une conception différentielle peut atténuer ce problème dans les Transformers, améliorant ainsi leur efficacité dans diverses applications. Dans cet article, nous explorons si ces techniques, initialement développées pour les Transformers, peuvent être appliquées à Mamba, une architecture récente basée sur des couches d'espace d'état sélectives qui atteint des performances comparables aux Transformers avec une plus grande efficacité. Nous montrons qu'une adaptation naïve de la conception différentielle à Mamba est insuffisante et nécessite des modifications architecturales minutieuses. Pour résoudre ce problème, nous introduisons un nouveau mécanisme différentiel pour Mamba, validé empiriquement sur des benchmarks de modélisation du langage, démontrant des capacités de récupération améliorées et une performance supérieure à celle de Mamba standard. Enfin, nous menons des études d'ablation approfondies et des analyses empiriques pour justifier nos choix de conception et fournir des preuves que notre approche atténue efficacement le problème de surallocation dans les modèles basés sur Mamba. Notre code est disponible publiquement.
English
Sequence models like Transformers and RNNs often overallocate attention to irrelevant context, leading to noisy intermediate representations. This degrades LLM capabilities by promoting hallucinations, weakening long-range and retrieval abilities, and reducing robustness. Recent work has shown that differential design can mitigate this issue in Transformers, improving their effectiveness across various applications. In this paper, we explore whether these techniques, originally developed for Transformers, can be applied to Mamba, a recent architecture based on selective state-space layers that achieves Transformer-level performance with greater efficiency. We show that a naive adaptation of differential design to Mamba is insufficient and requires careful architectural modifications. To address this, we introduce a novel differential mechanism for Mamba, empirically validated on language modeling benchmarks, demonstrating improved retrieval capabilities and superior performance over vanilla Mamba. Finally, we conduct extensive ablation studies and empirical analyses to justify our design choices and provide evidence that our approach effectively mitigates the overallocation problem in Mamba-based models. Our code is publicly available.
PDF163July 9, 2025