CauScale: Neuronale Kausale Entdeckung im großen Maßstab
CauScale: Neural Causal Discovery at Scale
February 9, 2026
papers.authors: Bo Peng, Sirui Chen, Jiaguo Tian, Yu Qiao, Chaochao Lu
cs.AI
papers.abstract
Kausale Entdeckung ist entscheidend für die Weiterentwicklung datengetriebener Bereiche wie wissenschaftliche KI und Datenanalyse, doch bestehende Ansätze stoßen bei der Skalierung auf große Graphen auf erhebliche Zeit- und Speichereffizienzengpässe. Um diese Herausforderung zu bewältigen, stellen wir CauScale vor, eine neuronale Architektur für effiziente kausale Entdeckung, die Inferenz auf Graphen mit bis zu 1000 Knoten skaliert. CauScale verbessert die Zeiteffizienz durch eine Reduktionseinheit, die Datenembedding komprimiert, und die Speichereffizienz durch gebundene Attention-Gewichte, die die Pfleg axisenspezifischer Attention-Maps vermeidet. Um eine hohe Genauigkeit der kausalen Entdeckung zu gewährleisten, verwendet CauScale ein Zwei-Stream-Design: Ein Datenstrom extrahiert relationale Evidenz aus hochdimensionalen Beobachtungen, während ein Graphstrom statistische Graph-Priors integriert und wichtige strukturelle Signale bewahrt. CauScale skaliert erfolgreich auf 500-Knoten-Graphen während des Trainings, wo frühere Arbeiten aufgrund von Speicherbeschränkungen scheitern. In Testdaten mit variierenden Graphgrößen und kausalen Mechanismen erzielt CauScale 99,6 % mAP auf In-Distribution-Daten und 84,4 % auf Out-of-Distribution-Daten, bei gleichzeitiger Beschleunigung der Inferenz um das 4- bis 13.000-fache gegenüber früheren Methoden. Unsere Projektseite befindet sich unter https://github.com/OpenCausaLab/CauScale.
English
Causal discovery is essential for advancing data-driven fields such as scientific AI and data analysis, yet existing approaches face significant time- and space-efficiency bottlenecks when scaling to large graphs. To address this challenge, we present CauScale, a neural architecture designed for efficient causal discovery that scales inference to graphs with up to 1000 nodes. CauScale improves time efficiency via a reduction unit that compresses data embeddings and improves space efficiency by adopting tied attention weights to avoid maintaining axis-specific attention maps. To keep high causal discovery accuracy, CauScale adopts a two-stream design: a data stream extracts relational evidence from high-dimensional observations, while a graph stream integrates statistical graph priors and preserves key structural signals. CauScale successfully scales to 500-node graphs during training, where prior work fails due to space limitations. Across testing data with varying graph scales and causal mechanisms, CauScale achieves 99.6% mAP on in-distribution data and 84.4% on out-of-distribution data, while delivering 4-13,000 times inference speedups over prior methods. Our project page is at https://github.com/OpenCausaLab/CauScale.