ChatPaper.aiChatPaper

Valutazione della Trasferibilità dei Modelli Fondamentali per Serie Temporali attraverso l'Apprendimento In-Contesto

Estimating Time Series Foundation Model Transferability via In-Context Learning

September 28, 2025
Autori: Qingren Yao, Ming Jin, Chengqi Zhang, Chao-Han Huck Yang, Jun Qi, Shirui Pan
cs.AI

Abstract

I modelli di base per serie temporali (TSFM) offrono previsioni zero-shot robuste attraverso il pre-training su larga scala, ma il fine-tuning rimane cruciale per migliorare le prestazioni in domini con dati pubblici limitati. Con il crescente numero di TSFM, identificare in modo efficiente il modello migliore per il fine-tuning downstream diventa sempre più complesso. In questo lavoro, introduciamo TimeTic, un framework di stima della trasferibilità che riformula la selezione del modello come un problema di in-context learning: date osservazioni su dataset noti (sorgente), prevede come un TSFM si comporterà dopo il fine-tuning su un dataset downstream (target). TimeTic organizza in modo flessibile le relazioni modello-dati osservate come informazioni contestuali, consentendogli di adattarsi senza soluzione di continuità a vari scenari di test. Sfruttando la struttura tabulare naturale formata da meta-caratteristiche dei dataset, caratteristiche del modello e prestazioni dopo il fine-tuning, utilizziamo modelli di base tabulari come apprenditori in contesto. Introduciamo inoltre una nuova caratterizzazione del modello basata sull'evoluzione dell'entropia attraverso i livelli del modello, catturando le distinzioni nello spazio di embedding e consentendo a TimeTic di generalizzare su insiemi di modelli arbitrari. Stabiliamo un benchmark completo per la stima della trasferibilità, includendo 10 dataset, 10 modelli di base e 3 task di previsione. Su questo benchmark, la stima di TimeTic dimostra una forte corrispondenza con le prestazioni effettive dopo il fine-tuning per dataset mai visti prima, raggiungendo una correlazione di rango media di circa 0,6 e un miglioramento del 30% rispetto all'utilizzo delle prestazioni zero-shot come punteggio di trasferibilità.
English
Time series foundation models (TSFMs) offer strong zero-shot forecasting via large-scale pre-training, yet fine-tuning remains critical for boosting performance in domains with limited public data. With the growing number of TSFMs, efficiently identifying the best model for downstream fine-tuning becomes increasingly challenging. In this work, we introduce TimeTic, a transferability estimation framework that recasts model selection as an in-context-learning problem: given observations on known (source) datasets, it predicts how a TSFM will perform after fine-tuning on a downstream (target) dataset. TimeTic flexibly organizes the observed model-data relationships as contextual information, allowing it to adapt seamlessly to various test-time scenarios. Leveraging the natural tabular structure formed by dataset meta-features, model characteristics, and fine-tuned performance, we employ tabular foundation models to serve as in-context learners. We further introduce a novel model characterization based on entropy evolution across model layers, capturing embedding-space distinctions and enabling TimeTic to generalize across arbitrary model sets. We establish a comprehensive benchmark for transferability estimation including 10 datasets, 10 foundation models, and 3 forecasting tasks. On this benchmark, TimeTic's estimation demonstrates strong alignment with actual fine-tuned performance for previously unseen datasets, achieving a mean rank correlation of approximately 0.6 and a 30% improvement compared to using zero-shot performance as the transferability score.
PDF12October 1, 2025