ChatPaper.aiChatPaper

Große Kausalmodelle für zeitliche Kausalerkennung

Large Causal Models for Temporal Causal Discovery

February 20, 2026
papers.authors: Nikolaos Kougioulis, Nikolaos Gkorgkolis, MingXue Wang, Bora Caglayan, Dario Simionato, Andrea Tonon, Ioannis Tsamardinos
cs.AI

papers.abstract

Die kausale Entdeckung für sowohl Querschnitts- als auch Zeitreihendaten folgte traditionell einem datensatzspezifischen Paradigma, bei dem für jeden einzelnen Datensatz ein neues Modell angepasst wird. Dieser Ansatz schränkt das Potenzial von Multi-Datensatz-Pre-Training ein. Das Konzept der Large Causal Models (LCMs) sieht eine Klasse von vortrainierten neuronalen Architekturen vor, die speziell für die zeitliche kausale Entdeckung entwickelt wurden. Bisherige Ansätze sind auf geringe Variablenanzahlen beschränkt, verschlechtern sich bei größeren Eingaben und stützen sich stark auf synthetische Daten, was die Generalisierbarkeit einschränkt. Wir schlagen ein prinzipielles Framework für LCMs vor, das diverse synthetische Generatoren mit realistischen Zeitreihendatensätzen kombiniert und Lernen im großen Maßstab ermöglicht. Umfangreiche Experimente mit synthetischen, semi-synthetischen und realistischen Benchmarks zeigen, dass LCMs effektiv auf höhere Variablenanzahlen und tiefere Architekturen skaliert werden können, während sie eine starke Leistung beibehalten. Trainierte Modelle erreichen im Vergleich zu klassischen und neuronalen Baseline-Modellen eine gleichwertige oder überlegene Genauigkeit, insbesondere in Out-of-Distribution-Szenarien, bei gleichzeitig schneller, Single-Pass-Inferenz. Die Ergebnisse demonstrieren, dass LCMs ein vielversprechendes Foundation-Model-Paradigma für die zeitliche kausale Entdeckung darstellen. Experimente und Modellgewichte sind verfügbar unter https://github.com/kougioulis/LCM-paper/.
English
Causal discovery for both cross-sectional and temporal data has traditionally followed a dataset-specific paradigm, where a new model is fitted for each individual dataset. Such an approach limits the potential of multi-dataset pretraining. The concept of large causal models (LCMs) envisions a class of pre-trained neural architectures specifically designed for temporal causal discovery. Prior approaches are constrained to small variable counts, degrade with larger inputs, and rely heavily on synthetic data, limiting generalization. We propose a principled framework for LCMs, combining diverse synthetic generators with realistic time-series datasets, allowing learning at scale. Extensive experiments on synthetic, semi-synthetic and realistic benchmarks show that LCMs scale effectively to higher variable counts and deeper architectures while maintaining strong performance. Trained models achieve competitive or superior accuracy compared to classical and neural baselines, particularly in out-of-distribution settings, while enabling fast, single-pass inference. Results demonstrate LCMs as a promising foundation-model paradigm for temporal causal discovery. Experiments and model weights are available at https://github.com/kougioulis/LCM-paper/.
PDF01February 25, 2026