ChatPaper.aiChatPaper

Redenerende Taalmodellen voor Root Cause Analyse in 5G Draadloze Netwerken

Reasoning Language Models for Root Cause Analysis in 5G Wireless Networks

July 29, 2025
Auteurs: Mohamed Sana, Nicola Piovesan, Antonio De Domenico, Yibin Kang, Haozhe Zhang, Merouane Debbah, Fadhel Ayed
cs.AI

Samenvatting

Root Cause Analysis (RCA) in mobiele netwerken blijft een uitdagende taak vanwege de behoefte aan interpreteerbaarheid, domeinkennis en causaal redeneren. In dit werk stellen we een lichtgewicht framework voor dat gebruikmaakt van Large Language Models (LLMs) voor RCA. Hiervoor introduceren we TeleLogs, een gecureerde dataset van geannoteerde probleemoplossingsscenario's die zijn ontworpen om RCA-capaciteiten te benchmarken. Onze evaluatie toont aan dat bestaande open-source redeneer-LLMs moeite hebben met deze problemen, wat de noodzaak van domeinspecifieke aanpassing benadrukt. Om dit probleem aan te pakken, stellen we een tweestaps trainingsmethodologie voor die supervised fine-tuning combineert met reinforcement learning om de nauwkeurigheid en redeneerkwaliteit van LLMs te verbeteren. De voorgestelde aanpak fine-tunt een reeks RCA-modellen om domeinkennis te integreren en gestructureerde, meerstaps diagnostische verklaringen te genereren, wat zowel de interpreteerbaarheid als de effectiviteit verbetert. Uitgebreide experimenten met verschillende LLM-groottes laten significante prestatieverbeteringen zien ten opzichte van state-of-the-art redeneer- en niet-redeneermodellen, inclusief sterke generalisatie naar gerandomiseerde testvarianten. Deze resultaten tonen de belofte aan van domein-aangepaste, redeneerversterkte LLMs voor praktische en uitlegbare RCA in netwerkoperatie en -beheer.
English
Root Cause Analysis (RCA) in mobile networks remains a challenging task due to the need for interpretability, domain expertise, and causal reasoning. In this work, we propose a lightweight framework that leverages Large Language Models (LLMs) for RCA. To do so, we introduce TeleLogs, a curated dataset of annotated troubleshooting problems designed to benchmark RCA capabilities. Our evaluation reveals that existing open-source reasoning LLMs struggle with these problems, underscoring the need for domain-specific adaptation. To address this issue, we propose a two-stage training methodology that combines supervised fine-tuning with reinforcement learning to improve the accuracy and reasoning quality of LLMs. The proposed approach fine-tunes a series of RCA models to integrate domain knowledge and generate structured, multi-step diagnostic explanations, improving both interpretability and effectiveness. Extensive experiments across multiple LLM sizes show significant performance gains over state-of-the-art reasoning and non-reasoning models, including strong generalization to randomized test variants. These results demonstrate the promise of domain-adapted, reasoning-enhanced LLMs for practical and explainable RCA in network operation and management.
PDF42August 7, 2025