LLM-ABR : Conception d'algorithmes de débit adaptatif via des modèles de langage de grande taille
LLM-ABR: Designing Adaptive Bitrate Algorithms via Large Language Models
April 2, 2024
papers.authors: Zhiyuan He, Aashish Gottipati, Lili Qiu, Francis Y. Yan, Xufang Luo, Kenuo Xu, Yuqing Yang
cs.AI
papers.abstract
Nous présentons LLM-ABR, le premier système qui exploite les capacités génératives des grands modèles de langage (LLMs) pour concevoir de manière autonome des algorithmes de débit adaptatif (ABR) adaptés à diverses caractéristiques réseau. Fonctionnant dans un cadre d'apprentissage par renforcement, LLM-ABR permet aux LLMs de concevoir des composants clés tels que les états et les architectures de réseaux neuronaux. Nous évaluons LLM-ABR dans divers environnements réseau, incluant le haut débit, le satellite, la 4G et la 5G. LLM-ABR surpasse systématiquement les algorithmes ABR par défaut.
English
We present LLM-ABR, the first system that utilizes the generative
capabilities of large language models (LLMs) to autonomously design adaptive
bitrate (ABR) algorithms tailored for diverse network characteristics.
Operating within a reinforcement learning framework, LLM-ABR empowers LLMs to
design key components such as states and neural network architectures. We
evaluate LLM-ABR across diverse network settings, including broadband,
satellite, 4G, and 5G. LLM-ABR consistently outperforms default ABR algorithms.