Modèles de Langage de Raisonnement pour l'Analyse des Causes Racines dans les Réseaux Sans Fil 5G
Reasoning Language Models for Root Cause Analysis in 5G Wireless Networks
July 29, 2025
papers.authors: Mohamed Sana, Nicola Piovesan, Antonio De Domenico, Yibin Kang, Haozhe Zhang, Merouane Debbah, Fadhel Ayed
cs.AI
papers.abstract
L'analyse des causes racines (RCA) dans les réseaux mobiles demeure une tâche complexe en raison du besoin d'interprétabilité, d'expertise domainale et de raisonnement causal. Dans ce travail, nous proposons un cadre léger qui exploite les modèles de langage de grande taille (LLMs) pour la RCA. Pour ce faire, nous introduisons TeleLogs, un ensemble de données annotées de problèmes de dépannage conçu pour évaluer les capacités de RCA. Notre évaluation révèle que les LLMs de raisonnement open-source existants peinent à résoudre ces problèmes, soulignant la nécessité d'une adaptation spécifique au domaine. Pour répondre à cette problématique, nous proposons une méthodologie d'apprentissage en deux étapes combinant un ajustement supervisé avec un apprentissage par renforcement afin d'améliorer la précision et la qualité du raisonnement des LLMs. L'approche proposée affine une série de modèles RCA pour intégrer des connaissances domainales et générer des explications diagnostiques structurées et multi-étapes, améliorant ainsi à la fois l'interprétabilité et l'efficacité. Des expériences approfondies sur plusieurs tailles de LLMs montrent des gains de performance significatifs par rapport aux modèles de raisonnement et non-raisonnement de pointe, y compris une forte généralisation à des variantes de tests randomisées. Ces résultats démontrent le potentiel des LLMs adaptés au domaine et renforcés en raisonnement pour une RCA pratique et explicable dans l'exploitation et la gestion des réseaux.
English
Root Cause Analysis (RCA) in mobile networks remains a challenging task due
to the need for interpretability, domain expertise, and causal reasoning. In
this work, we propose a lightweight framework that leverages Large Language
Models (LLMs) for RCA. To do so, we introduce TeleLogs, a curated dataset of
annotated troubleshooting problems designed to benchmark RCA capabilities. Our
evaluation reveals that existing open-source reasoning LLMs struggle with these
problems, underscoring the need for domain-specific adaptation. To address this
issue, we propose a two-stage training methodology that combines supervised
fine-tuning with reinforcement learning to improve the accuracy and reasoning
quality of LLMs. The proposed approach fine-tunes a series of RCA models to
integrate domain knowledge and generate structured, multi-step diagnostic
explanations, improving both interpretability and effectiveness. Extensive
experiments across multiple LLM sizes show significant performance gains over
state-of-the-art reasoning and non-reasoning models, including strong
generalization to randomized test variants. These results demonstrate the
promise of domain-adapted, reasoning-enhanced LLMs for practical and
explainable RCA in network operation and management.