ChatPaper.aiChatPaper

Modelos Causales Grandes para el Descubrimiento Causal Temporal

Large Causal Models for Temporal Causal Discovery

February 20, 2026
Autores: Nikolaos Kougioulis, Nikolaos Gkorgkolis, MingXue Wang, Bora Caglayan, Dario Simionato, Andrea Tonon, Ioannis Tsamardinos
cs.AI

Resumen

El descubrimiento causal para datos transversales y temporales ha seguido tradicionalmente un paradigma específico por conjunto de datos, donde un nuevo modelo se ajusta para cada conjunto individual. Este enfoque limita el potencial del preentrenamiento multi-conjunto. El concepto de modelos causales grandes (LCMs) visualiza una clase de arquitecturas neuronales preentrenadas específicamente diseñadas para el descubrimiento causal temporal. Los enfoques previos están limitados a pequeños números de variables, se degradan con entradas más grandes y dependen en gran medida de datos sintéticos, lo que limita la generalización. Proponemos un marco teórico para LCMs, combinando generadores sintéticos diversos con conjuntos de datos de series temporales realistas, permitiendo el aprendizaje a escala. Experimentos exhaustivos en benchmarks sintéticos, semi-sintéticos y realistas muestran que los LCMs escalan efectivamente a mayores números de variables y arquitecturas más profundas manteniendo un rendimiento sólido. Los modelos entrenados alcanzan una precisión competitiva o superior en comparación con líneas base clásicas y neuronales, particularmente en entornos fuera de distribución, a la vez que permiten una inferencia rápida en una sola pasada. Los resultados demuestran que los LCMs son un paradigma de modelo fundacional prometedor para el descubrimiento causal temporal. Los experimentos y los pesos del modelo están disponibles en https://github.com/kougioulis/LCM-paper/.
English
Causal discovery for both cross-sectional and temporal data has traditionally followed a dataset-specific paradigm, where a new model is fitted for each individual dataset. Such an approach limits the potential of multi-dataset pretraining. The concept of large causal models (LCMs) envisions a class of pre-trained neural architectures specifically designed for temporal causal discovery. Prior approaches are constrained to small variable counts, degrade with larger inputs, and rely heavily on synthetic data, limiting generalization. We propose a principled framework for LCMs, combining diverse synthetic generators with realistic time-series datasets, allowing learning at scale. Extensive experiments on synthetic, semi-synthetic and realistic benchmarks show that LCMs scale effectively to higher variable counts and deeper architectures while maintaining strong performance. Trained models achieve competitive or superior accuracy compared to classical and neural baselines, particularly in out-of-distribution settings, while enabling fast, single-pass inference. Results demonstrate LCMs as a promising foundation-model paradigm for temporal causal discovery. Experiments and model weights are available at https://github.com/kougioulis/LCM-paper/.
PDF01February 25, 2026