ChatPaper.aiChatPaper

Языковые модели для анализа причинно-следственных связей в беспроводных сетях 5G

Reasoning Language Models for Root Cause Analysis in 5G Wireless Networks

July 29, 2025
Авторы: Mohamed Sana, Nicola Piovesan, Antonio De Domenico, Yibin Kang, Haozhe Zhang, Merouane Debbah, Fadhel Ayed
cs.AI

Аннотация

Анализ первопричин (Root Cause Analysis, RCA) в мобильных сетях остается сложной задачей из-за необходимости интерпретируемости, экспертных знаний в предметной области и причинно-следственного рассуждения. В данной работе мы предлагаем легковесный фреймворк, который использует большие языковые модели (Large Language Models, LLMs) для RCA. Для этого мы представляем TeleLogs — тщательно отобранный набор данных с аннотированными задачами по устранению неполадок, предназначенный для оценки возможностей RCA. Наша оценка показывает, что существующие открытые LLM для рассуждений испытывают трудности с этими задачами, что подчеркивает необходимость адаптации к предметной области. Чтобы решить эту проблему, мы предлагаем двухэтапную методику обучения, которая сочетает контролируемую тонкую настройку с обучением с подкреплением для повышения точности и качества рассуждений LLM. Предложенный подход тонко настраивает серию моделей RCA для интеграции знаний предметной области и генерации структурированных, многошаговых диагностических объяснений, улучшая как интерпретируемость, так и эффективность. Масштабные эксперименты с моделями различных размеров демонстрируют значительное улучшение производительности по сравнению с современными моделями для рассуждений и без них, включая сильную обобщаемость на рандомизированные варианты тестов. Эти результаты показывают перспективность адаптированных к предметной области LLM с улучшенными возможностями рассуждений для практического и объяснимого RCA в операционной и управленческой деятельности сетей.
English
Root Cause Analysis (RCA) in mobile networks remains a challenging task due to the need for interpretability, domain expertise, and causal reasoning. In this work, we propose a lightweight framework that leverages Large Language Models (LLMs) for RCA. To do so, we introduce TeleLogs, a curated dataset of annotated troubleshooting problems designed to benchmark RCA capabilities. Our evaluation reveals that existing open-source reasoning LLMs struggle with these problems, underscoring the need for domain-specific adaptation. To address this issue, we propose a two-stage training methodology that combines supervised fine-tuning with reinforcement learning to improve the accuracy and reasoning quality of LLMs. The proposed approach fine-tunes a series of RCA models to integrate domain knowledge and generate structured, multi-step diagnostic explanations, improving both interpretability and effectiveness. Extensive experiments across multiple LLM sizes show significant performance gains over state-of-the-art reasoning and non-reasoning models, including strong generalization to randomized test variants. These results demonstrate the promise of domain-adapted, reasoning-enhanced LLMs for practical and explainable RCA in network operation and management.
PDF42August 7, 2025