ChatPaper.aiChatPaper

LaTIM: Mambaモデルにおける潜在的なトークン間相互作用の測定

LaTIM: Measuring Latent Token-to-Token Interactions in Mamba Models

February 21, 2025
著者: Hugo Pitorro, Marcos Treviso
cs.AI

要旨

状態空間モデル(SSMs)、特にMambaは、長文脈系列モデリングにおいてTransformerに代わる効率的な選択肢として台頭してきました。しかし、その採用が拡大しているにもかかわらず、SSMsには、アテンションベースのアーキテクチャの理解と改善に不可欠であった解釈可能性ツールが欠如しています。最近の研究ではMambaの内部メカニズムに関する洞察が提供されていますが、トークンレベルの寄与を明示的に分解しておらず、Mambaが層を跨いで系列を選択的に処理する方法の理解にギャップが残っています。本研究では、Mamba-1およびMamba-2の両方に対して、きめ細かい解釈可能性を可能にする新しいトークンレベル分解手法であるLaTIMを提案します。機械翻訳、コピー、検索ベース生成など多様なタスクにおいて本手法を広範に評価し、Mambaのトークン間相互作用パターンを明らかにする有効性を実証します。
English
State space models (SSMs), such as Mamba, have emerged as an efficient alternative to transformers for long-context sequence modeling. However, despite their growing adoption, SSMs lack the interpretability tools that have been crucial for understanding and improving attention-based architectures. While recent efforts provide insights into Mamba's internal mechanisms, they do not explicitly decompose token-wise contributions, leaving gaps in understanding how Mamba selectively processes sequences across layers. In this work, we introduce LaTIM, a novel token-level decomposition method for both Mamba-1 and Mamba-2 that enables fine-grained interpretability. We extensively evaluate our method across diverse tasks, including machine translation, copying, and retrieval-based generation, demonstrating its effectiveness in revealing Mamba's token-to-token interaction patterns.

Summary

AI-Generated Summary

PDF42February 26, 2025