ChatPaper.aiChatPaper

Grandi Modelli Causali per la Scoperta di Relazioni Causali Temporali

Large Causal Models for Temporal Causal Discovery

February 20, 2026
Autori: Nikolaos Kougioulis, Nikolaos Gkorgkolis, MingXue Wang, Bora Caglayan, Dario Simionato, Andrea Tonon, Ioannis Tsamardinos
cs.AI

Abstract

La scoperta causale per dati sia trasversali che temporali ha tradizionalmente seguito un paradigma specifico per dataset, in cui un nuovo modello viene adattato per ogni singolo dataset. Questo approccio limita il potenziale dell'addestramento preliminare multi-dataset. Il concetto di Large Causal Models (LCMs) prevede una classe di architetture neurali pre-addestrate specificamente progettate per la scoperta causale temporale. Gli approcci precedenti sono limitati a un numero ridotto di variabili, si degradano con input più grandi e fanno ampio affidamento su dati sintetici, limitando la generalizzazione. Proponiamo un framework metodologico per gli LCM, che combina generatori sintetici diversificati con dataset realistici di serie temporali, consentendo l'apprendimento su larga scala. Esperimenti estesi su benchmark sintetici, semi-sintetici e realistici mostrano che gli LCM si scalano efficacemente verso numeri di variabili più elevati e architetture più profonde mantenendo prestazioni solide. I modelli addestrati raggiungono un'accuratezza competitiva o superiore rispetto ai baseline classici e neurali, specialmente in contesti out-of-distribution, consentendo al contempo un'inferenza rapida e single-pass. I risultati dimostrano che gli LCM rappresentano un paradigma promettente di modello di base per la scoperta causale temporale. Gli esperimenti e i pesi del modello sono disponibili all'indirizzo https://github.com/kougioulis/LCM-paper/.
English
Causal discovery for both cross-sectional and temporal data has traditionally followed a dataset-specific paradigm, where a new model is fitted for each individual dataset. Such an approach limits the potential of multi-dataset pretraining. The concept of large causal models (LCMs) envisions a class of pre-trained neural architectures specifically designed for temporal causal discovery. Prior approaches are constrained to small variable counts, degrade with larger inputs, and rely heavily on synthetic data, limiting generalization. We propose a principled framework for LCMs, combining diverse synthetic generators with realistic time-series datasets, allowing learning at scale. Extensive experiments on synthetic, semi-synthetic and realistic benchmarks show that LCMs scale effectively to higher variable counts and deeper architectures while maintaining strong performance. Trained models achieve competitive or superior accuracy compared to classical and neural baselines, particularly in out-of-distribution settings, while enabling fast, single-pass inference. Results demonstrate LCMs as a promising foundation-model paradigm for temporal causal discovery. Experiments and model weights are available at https://github.com/kougioulis/LCM-paper/.
PDF12March 28, 2026