ChatPaper.aiChatPaper

Крупные каузальные модели для темпорального каузального вывода

Large Causal Models for Temporal Causal Discovery

February 20, 2026
Авторы: Nikolaos Kougioulis, Nikolaos Gkorgkolis, MingXue Wang, Bora Caglayan, Dario Simionato, Andrea Tonon, Ioannis Tsamardinos
cs.AI

Аннотация

Традиционно причинный вывод как для перекрестных, так и для временных данных следовал парадигме, специфичной для набора данных, когда новая модель обучается для каждого отдельного набора. Такой подход ограничивает потенциал предварительного обучения на множественных наборах данных. Концепция больших причинных моделей (LCM) предлагает класс предварительно обученных нейросетевых архитектур, специально разработанных для причинного выявления во временных данных. Предыдущие подходы ограничены малым количеством переменных, деградируют с увеличением размера входных данных и сильно зависят от синтетических данных, что ограничивает их обобщающую способность. Мы предлагаем принципиальную основу для LCM, объединяющую разнообразные синтетические генераторы с реалистичными наборами временных рядов, что позволяет осуществлять масштабируемое обучение. Обширные эксперименты на синтетических, полусинтетических и реалистичных бенчмарках показывают, что LCM эффективно масштабируются на большее количество переменных и более глубокие архитектуры, сохраняя при этом высокую производительность. Обученные модели демонстрируют конкурентоспособную или превосходящую точность по сравнению с классическими и нейросетевыми базовыми методами, особенно в условиях распределения, отличного от обучающего, при этом обеспечивая быстрый однопроходный вывод. Результаты демонстрируют, что LCM являются многообещающей парадигмой моделей-оснований для причинного выявления во временных данных. Эксперименты и веса моделей доступны по адресу https://github.com/kougioulis/LCM-paper/.
English
Causal discovery for both cross-sectional and temporal data has traditionally followed a dataset-specific paradigm, where a new model is fitted for each individual dataset. Such an approach limits the potential of multi-dataset pretraining. The concept of large causal models (LCMs) envisions a class of pre-trained neural architectures specifically designed for temporal causal discovery. Prior approaches are constrained to small variable counts, degrade with larger inputs, and rely heavily on synthetic data, limiting generalization. We propose a principled framework for LCMs, combining diverse synthetic generators with realistic time-series datasets, allowing learning at scale. Extensive experiments on synthetic, semi-synthetic and realistic benchmarks show that LCMs scale effectively to higher variable counts and deeper architectures while maintaining strong performance. Trained models achieve competitive or superior accuracy compared to classical and neural baselines, particularly in out-of-distribution settings, while enabling fast, single-pass inference. Results demonstrate LCMs as a promising foundation-model paradigm for temporal causal discovery. Experiments and model weights are available at https://github.com/kougioulis/LCM-paper/.
PDF01February 25, 2026