ChatPaper.aiChatPaper

トロピカル注意機構:組合せアルゴリズムのためのニューラルアルゴリズム推論

Tropical Attention: Neural Algorithmic Reasoning for Combinatorial Algorithms

May 22, 2025
著者: Baran Hashemi, Kurt Pasque, Chris Teska, Ruriko Yoshida
cs.AI

要旨

組合せ最適化問題に対する動的計画法(DP)アルゴリズムは、最大化、最小化、および古典的な加算を再帰アルゴリズム内で扱います。関連する価値関数は、max-plus半環における凸多面体に対応します。しかし、既存のニューラルアルゴリズム推論モデルは、ソフトマックス正規化されたドット積アテンションに依存しており、滑らかな指数重み付けがこれらの鋭い多面体構造をぼやかし、分布外(OOD)設定で評価すると崩壊してしまいます。本論文では、トロピカル幾何学のmax-plus半環でネイティブに動作する新しいアテンション関数であるTropical attentionを導入します。Tropical attentionがDP型組合せアルゴリズムのトロピカル回路を近似できることを証明します。さらに、Tropical transformerを使用することで、アルゴリズム推論タスクにおける長さ一般化と値一般化の両方で、ソフトマックスベースラインを上回りながら、敵対的攻撃下でも安定したOOD性能が向上することを提案します。また、ニューラルアルゴリズム推論のベンチマークにおける第三の軸として、敵対的攻撃一般化を提示します。我々の結果は、Tropical attentionがソフトマックスから失われた鋭くスケール不変な推論を回復することを示しています。
English
Dynamic programming (DP) algorithms for combinatorial optimization problems work with taking maximization, minimization, and classical addition in their recursion algorithms. The associated value functions correspond to convex polyhedra in the max plus semiring. Existing Neural Algorithmic Reasoning models, however, rely on softmax-normalized dot-product attention where the smooth exponential weighting blurs these sharp polyhedral structures and collapses when evaluated on out-of-distribution (OOD) settings. We introduce Tropical attention, a novel attention function that operates natively in the max-plus semiring of tropical geometry. We prove that Tropical attention can approximate tropical circuits of DP-type combinatorial algorithms. We then propose that using Tropical transformers enhances empirical OOD performance in both length generalization and value generalization, on algorithmic reasoning tasks, surpassing softmax baselines while remaining stable under adversarial attacks. We also present adversarial-attack generalization as a third axis for Neural Algorithmic Reasoning benchmarking. Our results demonstrate that Tropical attention restores the sharp, scale-invariant reasoning absent from softmax.
PDF11May 28, 2025