LLM을 활용한 시계열 예측을 위한 효율적인 모델 선택
Efficient Model Selection for Time Series Forecasting via LLMs
April 2, 2025
저자: Wang Wei, Tiankai Yang, Hongjie Chen, Ryan A. Rossi, Yue Zhao, Franck Dernoncourt, Hoda Eldardiry
cs.AI
초록
모델 선택은 시계열 예측에서 중요한 단계로, 전통적으로 다양한 데이터셋에 걸친 광범위한 성능 평가가 필요했습니다. 메타러닝 접근법은 이 과정을 자동화하려 하지만, 일반적으로 사전에 구축된 성능 행렬에 의존하며, 이를 구축하는 데 많은 비용이 듭니다. 본 연구에서는 대규모 언어 모델(LLM)을 경량화된 모델 선택 대안으로 활용하는 방법을 제안합니다. 우리의 방법은 LLM의 내재된 지식과 추론 능력을 활용하여 명시적인 성능 행렬의 필요성을 제거합니다. LLaMA, GPT, Gemini를 사용한 광범위한 실험을 통해, 우리의 접근법이 전통적인 메타러닝 기법과 휴리스틱 베이스라인을 능가하면서도 계산 오버헤드를 크게 줄일 수 있음을 입증했습니다. 이러한 결과는 시계열 예측을 위한 효율적인 모델 선택에서 LLM의 잠재력을 강조합니다.
English
Model selection is a critical step in time series forecasting, traditionally
requiring extensive performance evaluations across various datasets.
Meta-learning approaches aim to automate this process, but they typically
depend on pre-constructed performance matrices, which are costly to build. In
this work, we propose to leverage Large Language Models (LLMs) as a lightweight
alternative for model selection. Our method eliminates the need for explicit
performance matrices by utilizing the inherent knowledge and reasoning
capabilities of LLMs. Through extensive experiments with LLaMA, GPT and Gemini,
we demonstrate that our approach outperforms traditional meta-learning
techniques and heuristic baselines, while significantly reducing computational
overhead. These findings underscore the potential of LLMs in efficient model
selection for time series forecasting.Summary
AI-Generated Summary