ChatPaper.aiChatPaper

時系列予測のための効率的なモデル選択:LLMを活用したアプローチ

Efficient Model Selection for Time Series Forecasting via LLMs

April 2, 2025
著者: Wang Wei, Tiankai Yang, Hongjie Chen, Ryan A. Rossi, Yue Zhao, Franck Dernoncourt, Hoda Eldardiry
cs.AI

要旨

時系列予測におけるモデル選択は重要なステップであり、伝統的にはさまざまなデータセットにわたる広範な性能評価を必要としてきました。メタ学習アプローチはこのプロセスを自動化することを目指していますが、通常は事前に構築された性能マトリックスに依存しており、その構築には多大なコストがかかります。本研究では、大規模言語モデル(LLM)を軽量なモデル選択の代替手段として活用することを提案します。私たちの手法は、LLMの内在する知識と推論能力を利用することで、明示的な性能マトリックスの必要性を排除します。LLaMA、GPT、Geminiを用いた広範な実験を通じて、このアプローチが従来のメタ学習技術やヒューリスティックなベースラインを上回り、計算オーバーヘッドを大幅に削減することを実証しました。これらの知見は、時系列予測における効率的なモデル選択におけるLLMの可能性を強調するものです。
English
Model selection is a critical step in time series forecasting, traditionally requiring extensive performance evaluations across various datasets. Meta-learning approaches aim to automate this process, but they typically depend on pre-constructed performance matrices, which are costly to build. In this work, we propose to leverage Large Language Models (LLMs) as a lightweight alternative for model selection. Our method eliminates the need for explicit performance matrices by utilizing the inherent knowledge and reasoning capabilities of LLMs. Through extensive experiments with LLaMA, GPT and Gemini, we demonstrate that our approach outperforms traditional meta-learning techniques and heuristic baselines, while significantly reducing computational overhead. These findings underscore the potential of LLMs in efficient model selection for time series forecasting.

Summary

AI-Generated Summary

PDF162April 4, 2025