ChatPaper.aiChatPaper

LLM-ABR: 대규모 언어 모델을 통한 적응형 비트레이트 알고리즘 설계

LLM-ABR: Designing Adaptive Bitrate Algorithms via Large Language Models

April 2, 2024
저자: Zhiyuan He, Aashish Gottipati, Lili Qiu, Francis Y. Yan, Xufang Luo, Kenuo Xu, Yuqing Yang
cs.AI

초록

우리는 다양한 네트워크 특성에 맞춰 적응형 비트레이트(ABR) 알고리즘을 자율적으로 설계하기 위해 대규모 언어 모델(LLM)의 생성 능력을 활용한 최초의 시스템인 LLM-ABR을 소개한다. 강화 학습 프레임워크 내에서 작동하는 LLM-ABR은 LLM이 상태 및 신경망 아키텍처와 같은 핵심 구성 요소를 설계할 수 있도록 지원한다. 우리는 LLM-ABR을 광대역, 위성, 4G, 5G를 포함한 다양한 네트워크 환경에서 평가했다. LLM-ABR은 기본 ABR 알고리즘들을 지속적으로 능가하는 성능을 보여준다.
English
We present LLM-ABR, the first system that utilizes the generative capabilities of large language models (LLMs) to autonomously design adaptive bitrate (ABR) algorithms tailored for diverse network characteristics. Operating within a reinforcement learning framework, LLM-ABR empowers LLMs to design key components such as states and neural network architectures. We evaluate LLM-ABR across diverse network settings, including broadband, satellite, 4G, and 5G. LLM-ABR consistently outperforms default ABR algorithms.
PDF81November 26, 2024