Reasoning Language Models für die Ursachenanalyse in 5G-Drahtlosnetzwerken
Reasoning Language Models for Root Cause Analysis in 5G Wireless Networks
July 29, 2025
papers.authors: Mohamed Sana, Nicola Piovesan, Antonio De Domenico, Yibin Kang, Haozhe Zhang, Merouane Debbah, Fadhel Ayed
cs.AI
papers.abstract
Die Ursachenanalyse (Root Cause Analysis, RCA) in Mobilfunknetzen bleibt aufgrund der Anforderungen an Interpretierbarkeit, Domänenexpertise und kausale Schlussfolgerungen eine herausfordernde Aufgabe. In dieser Arbeit schlagen wir ein leichtgewichtiges Framework vor, das Large Language Models (LLMs) für die RCA nutzt. Hierfür führen wir TeleLogs ein, einen kuratierten Datensatz annotierter Problembehandlungsfälle, der dazu dient, die Fähigkeiten zur RCA zu bewerten. Unsere Auswertung zeigt, dass bestehende Open-Source-LLMs mit diesen Problemen kämpfen, was den Bedarf an domänenspezifischer Anpassung unterstreicht. Um dieses Problem zu adressieren, schlagen wir eine zweistufige Trainingsmethodik vor, die überwachtes Fein-Tuning mit bestärkendem Lernen kombiniert, um die Genauigkeit und die Qualität der Schlussfolgerungen von LLMs zu verbessern. Der vorgeschlagene Ansatz feinjustiert eine Reihe von RCA-Modellen, um Domänenwissen zu integrieren und strukturierte, mehrstufige Diagnoseerklärungen zu generieren, wodurch sowohl die Interpretierbarkeit als auch die Effektivität verbessert werden. Umfangreiche Experimente über verschiedene LLM-Größen hinweg zeigen signifikante Leistungssteigerungen gegenüber state-of-the-art Schlussfolgerungs- und Nicht-Schlussfolgerungsmodellen, einschließlich einer starken Generalisierung auf randomisierte Testvarianten. Diese Ergebnisse demonstrieren das Potenzial von domänenangepassten, schlussfolgerungsgestärkten LLMs für praktische und erklärbare RCA in der Netzwerkbetriebsführung und -verwaltung.
English
Root Cause Analysis (RCA) in mobile networks remains a challenging task due
to the need for interpretability, domain expertise, and causal reasoning. In
this work, we propose a lightweight framework that leverages Large Language
Models (LLMs) for RCA. To do so, we introduce TeleLogs, a curated dataset of
annotated troubleshooting problems designed to benchmark RCA capabilities. Our
evaluation reveals that existing open-source reasoning LLMs struggle with these
problems, underscoring the need for domain-specific adaptation. To address this
issue, we propose a two-stage training methodology that combines supervised
fine-tuning with reinforcement learning to improve the accuracy and reasoning
quality of LLMs. The proposed approach fine-tunes a series of RCA models to
integrate domain knowledge and generate structured, multi-step diagnostic
explanations, improving both interpretability and effectiveness. Extensive
experiments across multiple LLM sizes show significant performance gains over
state-of-the-art reasoning and non-reasoning models, including strong
generalization to randomized test variants. These results demonstrate the
promise of domain-adapted, reasoning-enhanced LLMs for practical and
explainable RCA in network operation and management.