ChatPaper.aiChatPaper

LLM-ABR: Diseño de algoritmos de tasa de bits adaptativa mediante modelos de lenguaje grandes

LLM-ABR: Designing Adaptive Bitrate Algorithms via Large Language Models

April 2, 2024
Autores: Zhiyuan He, Aashish Gottipati, Lili Qiu, Francis Y. Yan, Xufang Luo, Kenuo Xu, Yuqing Yang
cs.AI

Resumen

Presentamos LLM-ABR, el primer sistema que utiliza las capacidades generativas de los modelos de lenguaje de gran escala (LLMs, por sus siglas en inglés) para diseñar de manera autónoma algoritmos de tasa de bits adaptativa (ABR, por sus siglas en inglés) adaptados a diversas características de red. Operando dentro de un marco de aprendizaje por refuerzo, LLM-ABR permite a los LLMs diseñar componentes clave como estados y arquitecturas de redes neuronales. Evaluamos LLM-ABR en diversos entornos de red, incluyendo banda ancha, satélite, 4G y 5G. LLM-ABR supera consistentemente a los algoritmos ABR predeterminados.
English
We present LLM-ABR, the first system that utilizes the generative capabilities of large language models (LLMs) to autonomously design adaptive bitrate (ABR) algorithms tailored for diverse network characteristics. Operating within a reinforcement learning framework, LLM-ABR empowers LLMs to design key components such as states and neural network architectures. We evaluate LLM-ABR across diverse network settings, including broadband, satellite, 4G, and 5G. LLM-ABR consistently outperforms default ABR algorithms.
PDF81November 26, 2024