Grandes Modelos Causais para Descoberta Causal Temporal
Large Causal Models for Temporal Causal Discovery
February 20, 2026
Autores: Nikolaos Kougioulis, Nikolaos Gkorgkolis, MingXue Wang, Bora Caglayan, Dario Simionato, Andrea Tonon, Ioannis Tsamardinos
cs.AI
Resumo
A descoberta causal para dados transversais e temporais tem seguido tradicionalmente um paradigma específico para cada conjunto de dados, no qual um novo modelo é ajustado para cada conjunto de dados individual. Essa abordagem limita o potencial do pré-treinamento multi-conjunto de dados. O conceito de Grandes Modelos Causais (LCMs) vislumbra uma classe de arquiteturas neurais pré-treinadas especificamente projetadas para a descoberta causal temporal. Abordagens anteriores estão limitadas a pequenas quantidades de variáveis, degradam-se com entradas maiores e dependem fortemente de dados sintéticos, limitando a generalização. Propomos uma estrutura fundamentada para LCMs, combinando diversos geradores sintéticos com conjuntos de dados realistas de séries temporais, permitindo o aprendizado em escala. Experimentos extensivos em benchmarks sintéticos, semi-sintéticos e realistas mostram que os LCMs dimensionam-se efetivamente para maiores quantidades de variáveis e arquiteturas mais profundas, mantendo um desempenho sólido. Os modelos treinados alcançam precisão competitiva ou superior em comparação com baselines clássicas e neurais, particularmente em configurações fora da distribuição, ao mesmo tempo que permitem inferência rápida e de passagem única. Os resultados demonstram os LCMs como um paradigma de modelo de base promissor para a descoberta causal temporal. Experimentos e pesos dos modelos estão disponíveis em https://github.com/kougioulis/LCM-paper/.
English
Causal discovery for both cross-sectional and temporal data has traditionally followed a dataset-specific paradigm, where a new model is fitted for each individual dataset. Such an approach limits the potential of multi-dataset pretraining. The concept of large causal models (LCMs) envisions a class of pre-trained neural architectures specifically designed for temporal causal discovery. Prior approaches are constrained to small variable counts, degrade with larger inputs, and rely heavily on synthetic data, limiting generalization. We propose a principled framework for LCMs, combining diverse synthetic generators with realistic time-series datasets, allowing learning at scale. Extensive experiments on synthetic, semi-synthetic and realistic benchmarks show that LCMs scale effectively to higher variable counts and deeper architectures while maintaining strong performance. Trained models achieve competitive or superior accuracy compared to classical and neural baselines, particularly in out-of-distribution settings, while enabling fast, single-pass inference. Results demonstrate LCMs as a promising foundation-model paradigm for temporal causal discovery. Experiments and model weights are available at https://github.com/kougioulis/LCM-paper/.