ChatPaper.aiChatPaper

時間的に拡張されたグラフ注意ネットワークによるアフォーダンス分類

A Temporally Augmented Graph Attention Network for Affordance Classification

April 11, 2026
著者: Ami Chopra, Supriya Bordoloi, Shyamanta M. Hazarika
cs.AI

要旨

グラフ注意ネットワーク(GAT)は、関係性データにおけるノード表現学習の優れたフレームワークを提供するが、既存のGraph Attention Network(GAT)などの変種は主に静的なグラフで動作し、時系列データに適用する際には暗黙的な時間的集約に依存している。本論文では、インタラクション系列からのアフォーダンス分類に特化した、GATv2を時間的に拡張した定式化であるEEG-temporal Graph Attention Network(EEG-tGAT)を提案する。提案モデルは、異なる時間セグメントの寄与を調整する時間的注意機構と、時間的に相関した観測値全体の学習を正則化する時間的ドロップアウトを組み込んでいる。この設計は、アフォーダンスデータの時間次階が意味的に均一ではなく、識別情報が時間軸に沿って不均一に分布する可能性があるという仮説に基づいている。アフォーダンスデータセットを用いた実験結果から、EEG-tGATはGATv2と比較して分類性能が向上することが示された。この改善は、時間的重要性の明示的符号化と時間的ロバスト性の強化が、アフォーダンス駆動型インタラクションデータの構造により整合した帰納バイアスを導入することを示唆している。これらの知見は、時間的関係がタスクにおいて重要な役割を果たす場合、グラフ注意モデルへの小幅なアーキテクチャ変更が一貫した利益をもたらし得ることを示している。
English
Graph attention networks (GATs) provide one of the best frameworks for learning node representations in relational data; but, existing variants such as Graph Attention Network (GAT) mainly operate on static graphs and rely on implicit temporal aggregation when applied to sequential data. In this paper, we introduce Electroencephalography-temporal Graph Attention Network (EEG-tGAT), a temporally augmented formulation of GATv2 that is tailored for affordance classification from interaction sequences. The proposed model incorporates temporal attention to modulate the contribution of different time segments and temporal dropout to regularize learning across temporally correlated observations. The design reflects the assumption that temporal dimensions in affordance data are not semantically uniform and that discriminative information may be unevenly distributed across time. Experimental results on affordance datasets show that EEG-tGAT achieves improved classification performance compared to GATv2. The observed gains helps to conclude that explicitly encoding temporal importance and enforcing temporal robustness introduce inductive biases that are much better aligned with the structure of affordance-driven interaction data. These findings show us that modest architectural changes to graph attention models can help one obtain consistent benefits when temporal relationships play a nontrivial role in the task.
PDF02April 17, 2026