ChatPaper.aiChatPaper

LLM-ABR: Projetando Algoritmos de Taxa de Bits Adaptativa por meio de Modelos de Linguagem de Grande Escala

LLM-ABR: Designing Adaptive Bitrate Algorithms via Large Language Models

April 2, 2024
Autores: Zhiyuan He, Aashish Gottipati, Lili Qiu, Francis Y. Yan, Xufang Luo, Kenuo Xu, Yuqing Yang
cs.AI

Resumo

Apresentamos o LLM-ABR, o primeiro sistema que utiliza as capacidades generativas de modelos de linguagem de grande escala (LLMs) para projetar de forma autônoma algoritmos de taxa de bits adaptativa (ABR) personalizados para diversas características de rede. Operando dentro de um framework de aprendizado por reforço, o LLM-ABR capacita os LLMs a projetar componentes-chave, como estados e arquiteturas de redes neurais. Avaliamos o LLM-ABR em diversas configurações de rede, incluindo banda larga, satélite, 4G e 5G. O LLM-ABR consistentemente supera os algoritmos ABR padrão.
English
We present LLM-ABR, the first system that utilizes the generative capabilities of large language models (LLMs) to autonomously design adaptive bitrate (ABR) algorithms tailored for diverse network characteristics. Operating within a reinforcement learning framework, LLM-ABR empowers LLMs to design key components such as states and neural network architectures. We evaluate LLM-ABR across diverse network settings, including broadband, satellite, 4G, and 5G. LLM-ABR consistently outperforms default ABR algorithms.
PDF81November 26, 2024