Grands modèles causaux pour la découverte causale temporelle
Large Causal Models for Temporal Causal Discovery
February 20, 2026
papers.authors: Nikolaos Kougioulis, Nikolaos Gkorgkolis, MingXue Wang, Bora Caglayan, Dario Simionato, Andrea Tonon, Ioannis Tsamardinos
cs.AI
papers.abstract
La découverte causale pour les données transversales et temporelles a traditionnellement suivi un paradigme spécifique aux jeux de données, où un nouveau modèle est ajusté pour chaque jeu de données individuel. Cette approche limite le potentiel du pré-entraînement multi-jeux de données. Le concept de grands modèles causaux (LCM) envisage une classe d'architectures neuronales pré-entraînées spécialement conçues pour la découverte causale temporelle. Les approches antérieures sont limitées à de petits nombres de variables, se dégradent avec des entrées plus importantes et reposent fortement sur des données synthétiques, limitant la généralisation. Nous proposons un cadre méthodologique pour les LCM, combinant des générateurs synthétiques diversifiés avec des ensembles de données temporelles réalistes, permettant un apprentissage à grande échelle. Des expériences approfondies sur des benchmarks synthétiques, semi-synthétiques et réalistes montrent que les LCM s'adaptent efficacement à des nombres de variables plus élevés et à des architectures plus profondes tout en maintenant de solides performances. Les modèles entraînés atteignent une précision compétitive ou supérieure par rapport aux méthodes classiques et aux bases de référence neuronales, particulièrement dans des contextes hors-distribution, tout en permettant une inférence rapide en une seule passe. Les résultats démontrent que les LCM constituent un paradigme prometteur de modèle de fondation pour la découverte causale temporelle. Les expériences et les poids des modèles sont disponibles à l'adresse https://github.com/kougioulis/LCM-paper/.
English
Causal discovery for both cross-sectional and temporal data has traditionally followed a dataset-specific paradigm, where a new model is fitted for each individual dataset. Such an approach limits the potential of multi-dataset pretraining. The concept of large causal models (LCMs) envisions a class of pre-trained neural architectures specifically designed for temporal causal discovery. Prior approaches are constrained to small variable counts, degrade with larger inputs, and rely heavily on synthetic data, limiting generalization. We propose a principled framework for LCMs, combining diverse synthetic generators with realistic time-series datasets, allowing learning at scale. Extensive experiments on synthetic, semi-synthetic and realistic benchmarks show that LCMs scale effectively to higher variable counts and deeper architectures while maintaining strong performance. Trained models achieve competitive or superior accuracy compared to classical and neural baselines, particularly in out-of-distribution settings, while enabling fast, single-pass inference. Results demonstrate LCMs as a promising foundation-model paradigm for temporal causal discovery. Experiments and model weights are available at https://github.com/kougioulis/LCM-paper/.