Modelos de Lenguaje de Razonamiento para el Análisis de Causa Raíz en Redes Inalámbricas 5G
Reasoning Language Models for Root Cause Analysis in 5G Wireless Networks
July 29, 2025
Autores: Mohamed Sana, Nicola Piovesan, Antonio De Domenico, Yibin Kang, Haozhe Zhang, Merouane Debbah, Fadhel Ayed
cs.AI
Resumen
El Análisis de Causa Raíz (RCA, por sus siglas en inglés) en redes móviles sigue siendo una tarea desafiante debido a la necesidad de interpretabilidad, experiencia en el dominio y razonamiento causal. En este trabajo, proponemos un marco ligero que aprovecha los Modelos de Lenguaje de Gran Escala (LLMs, por sus siglas en inglés) para el RCA. Para ello, presentamos TeleLogs, un conjunto de datos curado de problemas de resolución de fallos anotados diseñado para evaluar las capacidades de RCA. Nuestra evaluación revela que los LLMs de razonamiento de código abierto existentes tienen dificultades con estos problemas, lo que subraya la necesidad de una adaptación específica del dominio. Para abordar este problema, proponemos una metodología de entrenamiento en dos etapas que combina el ajuste fino supervisado con el aprendizaje por refuerzo para mejorar la precisión y la calidad del razonamiento de los LLMs. El enfoque propuesto ajusta una serie de modelos de RCA para integrar el conocimiento del dominio y generar explicaciones diagnósticas estructuradas y de múltiples pasos, mejorando tanto la interpretabilidad como la efectividad. Experimentos extensos en múltiples tamaños de LLMs muestran ganancias significativas en el rendimiento sobre los modelos de razonamiento y no razonamiento más avanzados, incluyendo una fuerte generalización a variantes de pruebas aleatorizadas. Estos resultados demuestran el potencial de los LLMs adaptados al dominio y mejorados en razonamiento para un RCA práctico y explicable en la operación y gestión de redes.
English
Root Cause Analysis (RCA) in mobile networks remains a challenging task due
to the need for interpretability, domain expertise, and causal reasoning. In
this work, we propose a lightweight framework that leverages Large Language
Models (LLMs) for RCA. To do so, we introduce TeleLogs, a curated dataset of
annotated troubleshooting problems designed to benchmark RCA capabilities. Our
evaluation reveals that existing open-source reasoning LLMs struggle with these
problems, underscoring the need for domain-specific adaptation. To address this
issue, we propose a two-stage training methodology that combines supervised
fine-tuning with reinforcement learning to improve the accuracy and reasoning
quality of LLMs. The proposed approach fine-tunes a series of RCA models to
integrate domain knowledge and generate structured, multi-step diagnostic
explanations, improving both interpretability and effectiveness. Extensive
experiments across multiple LLM sizes show significant performance gains over
state-of-the-art reasoning and non-reasoning models, including strong
generalization to randomized test variants. These results demonstrate the
promise of domain-adapted, reasoning-enhanced LLMs for practical and
explainable RCA in network operation and management.