ChatPaper.aiChatPaper

Het schatten van de overdraagbaarheid van tijdreeks foundation modellen via in-context leren

Estimating Time Series Foundation Model Transferability via In-Context Learning

September 28, 2025
Auteurs: Qingren Yao, Ming Jin, Chengqi Zhang, Chao-Han Huck Yang, Jun Qi, Shirui Pan
cs.AI

Samenvatting

Time series foundation models (TSFMs) bieden sterke zero-shot voorspellingen via grootschalige voorafgaande training, maar fine-tuning blijft cruciaal om de prestaties te verbeteren in domeinen met beperkte openbare data. Met het groeiende aantal TSFMs wordt het efficiënt identificeren van het beste model voor downstream fine-tuning steeds uitdagender. In dit werk introduceren we TimeTic, een raamwerk voor overdraagbaarheidsschatting dat modelselectie herformuleert als een in-context-leerprobleem: gegeven observaties op bekende (bron) datasets, voorspelt het hoe een TSFM zal presteren na fine-tuning op een downstream (doel) dataset. TimeTic organiseert flexibel de waargenomen model-data relaties als contextuele informatie, waardoor het naadloos kan aanpassen aan verschillende testscenario's. Door gebruik te maken van de natuurlijke tabelstructuur gevormd door dataset meta-kenmerken, modelkenmerken en fine-tuning prestaties, zetten we tabel foundation models in als in-context learners. We introduceren verder een nieuwe modelkarakterisering gebaseerd op entropie-evolutie over model lagen, die onderscheidingen in de embedding-ruimte vastlegt en TimeTic in staat stelt te generaliseren over willekeurige modelsets. We stellen een uitgebreide benchmark op voor overdraagbaarheidsschatting, inclusief 10 datasets, 10 foundation models en 3 voorspellingstaken. Op deze benchmark toont TimeTic's schatting een sterke overeenkomst met de daadwerkelijke fine-tuning prestaties voor voorheen onbekende datasets, met een gemiddelde rangcorrelatie van ongeveer 0.6 en een verbetering van 30% vergeleken met het gebruik van zero-shot prestaties als overdraagbaarheidsscore.
English
Time series foundation models (TSFMs) offer strong zero-shot forecasting via large-scale pre-training, yet fine-tuning remains critical for boosting performance in domains with limited public data. With the growing number of TSFMs, efficiently identifying the best model for downstream fine-tuning becomes increasingly challenging. In this work, we introduce TimeTic, a transferability estimation framework that recasts model selection as an in-context-learning problem: given observations on known (source) datasets, it predicts how a TSFM will perform after fine-tuning on a downstream (target) dataset. TimeTic flexibly organizes the observed model-data relationships as contextual information, allowing it to adapt seamlessly to various test-time scenarios. Leveraging the natural tabular structure formed by dataset meta-features, model characteristics, and fine-tuned performance, we employ tabular foundation models to serve as in-context learners. We further introduce a novel model characterization based on entropy evolution across model layers, capturing embedding-space distinctions and enabling TimeTic to generalize across arbitrary model sets. We establish a comprehensive benchmark for transferability estimation including 10 datasets, 10 foundation models, and 3 forecasting tasks. On this benchmark, TimeTic's estimation demonstrates strong alignment with actual fine-tuned performance for previously unseen datasets, achieving a mean rank correlation of approximately 0.6 and a 30% improvement compared to using zero-shot performance as the transferability score.
PDF12October 1, 2025