ChatPaper.aiChatPaper

Reasoning Language Models für die Ursachenanalyse in 5G-Drahtlosnetzwerken

Reasoning Language Models for Root Cause Analysis in 5G Wireless Networks

July 29, 2025
papers.authors: Mohamed Sana, Nicola Piovesan, Antonio De Domenico, Yibin Kang, Haozhe Zhang, Merouane Debbah, Fadhel Ayed
cs.AI

papers.abstract

Die Ursachenanalyse (Root Cause Analysis, RCA) in Mobilfunknetzen bleibt aufgrund der Anforderungen an Interpretierbarkeit, Domänenexpertise und kausale Schlussfolgerungen eine herausfordernde Aufgabe. In dieser Arbeit schlagen wir ein leichtgewichtiges Framework vor, das Large Language Models (LLMs) für die RCA nutzt. Hierfür führen wir TeleLogs ein, einen kuratierten Datensatz annotierter Problembehandlungsfälle, der dazu dient, die Fähigkeiten zur RCA zu bewerten. Unsere Auswertung zeigt, dass bestehende Open-Source-LLMs mit diesen Problemen kämpfen, was den Bedarf an domänenspezifischer Anpassung unterstreicht. Um dieses Problem zu adressieren, schlagen wir eine zweistufige Trainingsmethodik vor, die überwachtes Fein-Tuning mit bestärkendem Lernen kombiniert, um die Genauigkeit und die Qualität der Schlussfolgerungen von LLMs zu verbessern. Der vorgeschlagene Ansatz feinjustiert eine Reihe von RCA-Modellen, um Domänenwissen zu integrieren und strukturierte, mehrstufige Diagnoseerklärungen zu generieren, wodurch sowohl die Interpretierbarkeit als auch die Effektivität verbessert werden. Umfangreiche Experimente über verschiedene LLM-Größen hinweg zeigen signifikante Leistungssteigerungen gegenüber state-of-the-art Schlussfolgerungs- und Nicht-Schlussfolgerungsmodellen, einschließlich einer starken Generalisierung auf randomisierte Testvarianten. Diese Ergebnisse demonstrieren das Potenzial von domänenangepassten, schlussfolgerungsgestärkten LLMs für praktische und erklärbare RCA in der Netzwerkbetriebsführung und -verwaltung.
English
Root Cause Analysis (RCA) in mobile networks remains a challenging task due to the need for interpretability, domain expertise, and causal reasoning. In this work, we propose a lightweight framework that leverages Large Language Models (LLMs) for RCA. To do so, we introduce TeleLogs, a curated dataset of annotated troubleshooting problems designed to benchmark RCA capabilities. Our evaluation reveals that existing open-source reasoning LLMs struggle with these problems, underscoring the need for domain-specific adaptation. To address this issue, we propose a two-stage training methodology that combines supervised fine-tuning with reinforcement learning to improve the accuracy and reasoning quality of LLMs. The proposed approach fine-tunes a series of RCA models to integrate domain knowledge and generate structured, multi-step diagnostic explanations, improving both interpretability and effectiveness. Extensive experiments across multiple LLM sizes show significant performance gains over state-of-the-art reasoning and non-reasoning models, including strong generalization to randomized test variants. These results demonstrate the promise of domain-adapted, reasoning-enhanced LLMs for practical and explainable RCA in network operation and management.
PDF42August 7, 2025