ChatPaper.aiChatPaper

Modelli Linguistici di Ragionamento per l'Analisi delle Cause Profonde nelle Reti Wireless 5G

Reasoning Language Models for Root Cause Analysis in 5G Wireless Networks

July 29, 2025
Autori: Mohamed Sana, Nicola Piovesan, Antonio De Domenico, Yibin Kang, Haozhe Zhang, Merouane Debbah, Fadhel Ayed
cs.AI

Abstract

L'analisi delle cause profonde (Root Cause Analysis, RCA) nelle reti mobili rimane un compito impegnativo a causa della necessità di interpretabilità, competenza di dominio e ragionamento causale. In questo lavoro, proponiamo un framework leggero che sfrutta i Large Language Models (LLM) per la RCA. A tal fine, introduciamo TeleLogs, un dataset curato di problemi di risoluzione dei guasti annotati, progettato per valutare le capacità di RCA. La nostra valutazione rivela che gli LLM open-source esistenti faticano a risolvere questi problemi, evidenziando la necessità di un adattamento specifico al dominio. Per affrontare questa problematica, proponiamo una metodologia di addestramento in due fasi che combina il fine-tuning supervisionato con l'apprendimento per rinforzo, al fine di migliorare l'accuratezza e la qualità del ragionamento degli LLM. L'approccio proposto addestra una serie di modelli RCA per integrare la conoscenza di dominio e generare spiegazioni diagnostiche strutturate e multi-step, migliorando sia l'interpretabilità che l'efficacia. Esperimenti estesi su diverse dimensioni di LLM mostrano significativi miglioramenti delle prestazioni rispetto ai modelli all'avanguardia, sia di ragionamento che non, inclusa una forte generalizzazione a varianti di test randomizzate. Questi risultati dimostrano il potenziale degli LLM adattati al dominio e potenziati nel ragionamento per una RCA pratica e spiegabile nelle operazioni e nella gestione delle reti.
English
Root Cause Analysis (RCA) in mobile networks remains a challenging task due to the need for interpretability, domain expertise, and causal reasoning. In this work, we propose a lightweight framework that leverages Large Language Models (LLMs) for RCA. To do so, we introduce TeleLogs, a curated dataset of annotated troubleshooting problems designed to benchmark RCA capabilities. Our evaluation reveals that existing open-source reasoning LLMs struggle with these problems, underscoring the need for domain-specific adaptation. To address this issue, we propose a two-stage training methodology that combines supervised fine-tuning with reinforcement learning to improve the accuracy and reasoning quality of LLMs. The proposed approach fine-tunes a series of RCA models to integrate domain knowledge and generate structured, multi-step diagnostic explanations, improving both interpretability and effectiveness. Extensive experiments across multiple LLM sizes show significant performance gains over state-of-the-art reasoning and non-reasoning models, including strong generalization to randomized test variants. These results demonstrate the promise of domain-adapted, reasoning-enhanced LLMs for practical and explainable RCA in network operation and management.
PDF42December 16, 2025