Grote Causale Modellen voor Temporele Causale Ontdekking
Large Causal Models for Temporal Causal Discovery
February 20, 2026
Auteurs: Nikolaos Kougioulis, Nikolaos Gkorgkolis, MingXue Wang, Bora Caglayan, Dario Simionato, Andrea Tonon, Ioannis Tsamardinos
cs.AI
Samenvatting
Causale ontdekking voor zowel cross-sectionele als temporele data volgt traditioneel een datasetspecifiek paradigma, waarbij een nieuw model wordt aangepast voor elke individuele dataset. Deze aanpak beperkt de mogelijkheden van multi-dataset pre-training. Het concept van grote causale modellen (LCM's) introduceert een klasse van vooraf getrainde neurale architecturen die specifiek zijn ontworpen voor temporele causale ontdekking. Eerdere benaderingen zijn beperkt tot kleine aantallen variabelen, presteren slechter bij grotere invoer en steunen zwaar op synthetische data, wat de generalisatie beperkt. Wij stellen een principieel kader voor LCM's voor, dat diverse synthetische generatoren combineert met realistische tijdreeksdatasets, waardoor leren op schaal mogelijk wordt. Uitgebreide experimenten op synthetische, semi-synthetische en realistische benchmarks tonen aan dat LCM's effectief schalen naar hogere aantallen variabelen en diepere architecturen, terwijl ze sterke prestaties behouden. Getrainde modellen bereiken competitieve of superieure nauwkeurigheid vergeleken met klassieke en neurale baseline-methoden, vooral in out-of-distribution settings, en maken tegelijkertijd snelle, single-pass inferentie mogelijk. De resultaten tonen aan dat LCM's een veelbelovend foundation-modelparadigma vormen voor temporele causale ontdekking. Experimenten en modelgewichten zijn beschikbaar op https://github.com/kougioulis/LCM-paper/.
English
Causal discovery for both cross-sectional and temporal data has traditionally followed a dataset-specific paradigm, where a new model is fitted for each individual dataset. Such an approach limits the potential of multi-dataset pretraining. The concept of large causal models (LCMs) envisions a class of pre-trained neural architectures specifically designed for temporal causal discovery. Prior approaches are constrained to small variable counts, degrade with larger inputs, and rely heavily on synthetic data, limiting generalization. We propose a principled framework for LCMs, combining diverse synthetic generators with realistic time-series datasets, allowing learning at scale. Extensive experiments on synthetic, semi-synthetic and realistic benchmarks show that LCMs scale effectively to higher variable counts and deeper architectures while maintaining strong performance. Trained models achieve competitive or superior accuracy compared to classical and neural baselines, particularly in out-of-distribution settings, while enabling fast, single-pass inference. Results demonstrate LCMs as a promising foundation-model paradigm for temporal causal discovery. Experiments and model weights are available at https://github.com/kougioulis/LCM-paper/.