ChatPaper.aiChatPaper

Invarianter Graph-Transformer

Invariant Graph Transformer

December 13, 2023
Autoren: Zhe Xu, Menghai Pan, Yuzhong Chen, Huiyuan Chen, Yuchen Yan, Mahashweta Das, Hanghang Tong
cs.AI

Zusammenfassung

Die Entdeckung von Rationalen wird definiert als das Finden einer Teilmenge der Eingabedaten, die die Vorhersage von nachgelagerten Aufgaben maximal unterstützt. Im Kontext des maschinellen Lernens auf Graphen wird das Graph-Rational definiert als die Lokalisierung des kritischen Teilgraphen in der gegebenen Graphentopologie, der die Vorhersageergebnisse grundlegend bestimmt. Im Gegensatz zum Rational-Teilgraphen wird der verbleibende Teilgraph als Umwelt-Teilgraph bezeichnet. Die Graph-Rationalisierung kann die Modellleistung verbessern, da die Abbildung zwischen dem Graph-Rational und dem Vorhersagelabel als invariant angenommen wird. Um die diskriminative Kraft der extrahierten Rational-Teilgraphen sicherzustellen, wird eine Schlüsseltechnik namens „Intervention“ angewendet. Die Kernidee der Intervention besteht darin, dass die Semantik des Rational-Teilgraphen bei beliebigen Veränderungen des Umwelt-Teilgraphen invariant bleibt, was das korrekte Vorhersageergebnis gewährleistet. Die meisten, wenn nicht alle, bestehenden Rationalisierungsarbeiten auf Graphdaten entwickeln ihre Interventionsstrategien jedoch auf der Graphenebene, was grobkörnig ist. In diesem Artikel schlagen wir maßgeschneiderte Interventionsstrategien für Graphdaten vor. Unsere Idee wird durch die Entwicklung von Transformer-Modellen inspiriert, deren Selbstaufmerksamkeitsmodul reiche Interaktionen zwischen den Eingabeknoten bietet. Basierend auf dem Selbstaufmerksamkeitsmodul kann unser vorgeschlagener invarianter Graph-Transformer (IGT) feinkörnige, genauer gesagt, knoten- und virtuell-knotenbasierte Interventionen erreichen. Unsere umfassenden Experimente umfassen 7 reale Datensätze, und der vorgeschlagene IGT zeigt signifikante Leistungsvorteile im Vergleich zu 13 Baseline-Methoden.
English
Rationale discovery is defined as finding a subset of the input data that maximally supports the prediction of downstream tasks. In graph machine learning context, graph rationale is defined to locate the critical subgraph in the given graph topology, which fundamentally determines the prediction results. In contrast to the rationale subgraph, the remaining subgraph is named the environment subgraph. Graph rationalization can enhance the model performance as the mapping between the graph rationale and prediction label is viewed as invariant, by assumption. To ensure the discriminative power of the extracted rationale subgraphs, a key technique named "intervention" is applied. The core idea of intervention is that given any changing environment subgraphs, the semantics from the rationale subgraph is invariant, which guarantees the correct prediction result. However, most, if not all, of the existing rationalization works on graph data develop their intervention strategies on the graph level, which is coarse-grained. In this paper, we propose well-tailored intervention strategies on graph data. Our idea is driven by the development of Transformer models, whose self-attention module provides rich interactions between input nodes. Based on the self-attention module, our proposed invariant graph Transformer (IGT) can achieve fine-grained, more specifically, node-level and virtual node-level intervention. Our comprehensive experiments involve 7 real-world datasets, and the proposed IGT shows significant performance advantages compared to 13 baseline methods.
PDF100December 15, 2024