Time-R1: Verso un Ragionamento Temporale Completo nei Modelli Linguistici di Grande Dimensione
Time-R1: Towards Comprehensive Temporal Reasoning in LLMs
May 16, 2025
Autori: Zijia Liu, Peixuan Han, Haofei Yu, Haoru Li, Jiaxuan You
cs.AI
Abstract
I Large Language Model (LLM) dimostrano capacità impressionanti ma mancano di una solida intelligenza temporale, trovando difficoltà nell'integrare il ragionamento sul passato con previsioni e generazioni plausibili del futuro. Nel frattempo, i metodi esistenti si concentrano tipicamente su abilità temporali isolate, come il question answering su eventi passati o previsioni di base, e mostrano una scarsa generalizzazione, specialmente quando si tratta di eventi oltre il loro cutoff di conoscenza o che richiedono una visione creativa. Per affrontare queste limitazioni, introduciamo Time-R1, il primo framework progettato per dotare un LLM di dimensioni moderate (3 miliardi di parametri) di abilità temporali complete: comprensione, previsione e generazione creativa. Il nostro approccio presenta un percorso di sviluppo innovativo in tre fasi; le prime due costituiscono un curriculum di reinforcement learning (RL) guidato da un sistema di ricompense dinamico basato su regole accuratamente progettato. Questo framework costruisce progressivamente (1) una comprensione temporale di base e mappature logiche evento-tempo dai dati storici, (2) abilità di previsione di eventi futuri oltre il cutoff di conoscenza e, infine, (3) consente una notevole generalizzazione nella generazione creativa di scenari futuri senza alcun fine-tuning. Sorprendentemente, gli esperimenti dimostrano che Time-R1 supera modelli oltre 200 volte più grandi, incluso lo state-of-the-art DeepSeek-R1 da 671 miliardi di parametri, su benchmark altamente impegnativi per la previsione di eventi futuri e la generazione creativa di scenari. Questo lavoro fornisce una forte evidenza che un fine-tuning RL progressivo e ben progettato consente a modelli più piccoli ed efficienti di raggiungere prestazioni temporali superiori, offrendo un percorso pratico e scalabile verso un’IA veramente consapevole del tempo. Per promuovere ulteriori ricerche, rilasciamo anche Time-Bench, un dataset su larga scala per il ragionamento temporale multi-task derivato da 10 anni di dati giornalistici, e la nostra serie di checkpoint di Time-R1.
English
Large Language Models (LLMs) demonstrate impressive capabilities but lack
robust temporal intelligence, struggling to integrate reasoning about the past
with predictions and plausible generations of the future. Meanwhile, existing
methods typically target isolated temporal skills, such as question answering
about past events or basic forecasting, and exhibit poor generalization,
particularly when dealing with events beyond their knowledge cutoff or
requiring creative foresight. To address these limitations, we introduce
Time-R1, the first framework to endow a moderate-sized (3B-parameter)
LLM with comprehensive temporal abilities: understanding, prediction, and
creative generation. Our approach features a novel three-stage development
path; the first two constitute a reinforcement learning (RL)
curriculum driven by a meticulously designed dynamic rule-based reward system.
This framework progressively builds (1) foundational temporal understanding and
logical event-time mappings from historical data, (2) future event prediction
skills for events beyond its knowledge cutoff, and finally (3) enables
remarkable generalization to creative future scenario generation without any
fine-tuning. Strikingly, experiments demonstrate that Time-R1 outperforms
models over 200 times larger, including the state-of-the-art 671B DeepSeek-R1,
on highly challenging future event prediction and creative scenario generation
benchmarks. This work provides strong evidence that thoughtfully engineered,
progressive RL fine-tuning allows smaller, efficient models to achieve superior
temporal performance, offering a practical and scalable path towards truly
time-aware AI. To foster further research, we also release Time-Bench,
a large-scale multi-task temporal reasoning dataset derived from 10 years of
news data, and our series of Time-R1 checkpoints.