ChatPaper.aiChatPaper

LLaTiSA: Naar moeilijkheidsgestratificeerd redeneren over tijdreeksen, van visuele waarneming tot semantiek

LLaTiSA: Towards Difficulty-Stratified Time Series Reasoning from Visual Perception to Semantics

April 19, 2026
Auteurs: Yueyang Ding, HaoPeng Zhang, Rui Dai, Yi Wang, Tianyu Zong, Kaikui Liu, Xiangxiang Chu
cs.AI

Samenvatting

Een uitgebreid begrip van tijdreeksen blijft een aanzienlijke uitdaging voor grote taalmmodellen (LLM's). Het huidige onderzoek wordt belemmerd door gefragmenteerde taakdefinities en benchmarks met inherente ambiguïteiten, wat een rigoureuze evaluatie en de ontwikkeling van verenigde Tijdreeks Redeneermodellen (TSRM's) verhindert. Om deze kloof te overbruggen, formaliseren we Tijdreeks Redeneren (TSR) via een taxonomie van vier niveaus met toenemende cognitieve complexiteit. We introduceren HiTSR, een hiërarchische tijdreeksredeneerdataset bestaande uit 83k samples met diverse taakcombinaties en geverifieerde Chain-of-Thought (CoT)-trajecten. Gebruikmakend van HiTSR, stellen we LLaTiSA voor, een krachtige TSRM die gevisualiseerde patronen integreert met precisiegekalibreerde numerieke tabellen om het temporeel bewustzijn van Vision-Language Models (VLM's) te verbeteren. Door een meerfasige curriculum fine-tuning strategie bereikt LLaTiSA superieure prestaties en vertoont het robuuste generalisatie buiten de verdeling over diverse TSR-taken en realistische scenario's. Onze code is beschikbaar op https://github.com/RainingNovember/LLaTiSA.
English
Comprehensive understanding of time series remains a significant challenge for Large Language Models (LLMs). Current research is hindered by fragmented task definitions and benchmarks with inherent ambiguities, precluding rigorous evaluation and the development of unified Time Series Reasoning Models(TSRMs). To bridge this gap, we formalize Time Series Reasoning (TSR) via a four-level taxonomy of increasing cognitive complexity. We introduce HiTSR, a hierarchical time series reasoning dataset comprising 83k samples with diverse task combinations and verified Chain-of-Thought (CoT) trajectories. Leveraging HiTSR, we propose LLaTiSA, a strong TSRM that integrates visualized patterns with precision-calibrated numerical tables to enhance the temporal perception of Vision-Language Models (VLMs). Through a multi-stage curriculum fine-tuning strategy, LLaTiSA achieves superior performance and exhibits robust out-of-distribution generalization across diverse TSR tasks and real-world scenarios. Our code is available at https://github.com/RainingNovember/LLaTiSA.
PDF752April 25, 2026