ChatPaper.aiChatPaper

Modelos de Linguagem de Raciocínio para Análise de Causa Raiz em Redes Sem Fio 5G

Reasoning Language Models for Root Cause Analysis in 5G Wireless Networks

July 29, 2025
Autores: Mohamed Sana, Nicola Piovesan, Antonio De Domenico, Yibin Kang, Haozhe Zhang, Merouane Debbah, Fadhel Ayed
cs.AI

Resumo

A Análise de Causa Raiz (RCA, do inglês Root Cause Analysis) em redes móveis continua sendo uma tarefa desafiadora devido à necessidade de interpretabilidade, expertise de domínio e raciocínio causal. Neste trabalho, propomos um framework leve que aproveita Modelos de Linguagem de Grande Escala (LLMs, do inglês Large Language Models) para RCA. Para isso, introduzimos o TeleLogs, um conjunto de dados curado de problemas de solução de problemas anotados, projetado para avaliar as capacidades de RCA. Nossa avaliação revela que os LLMs de raciocínio de código aberto existentes têm dificuldades com esses problemas, destacando a necessidade de adaptação específica ao domínio. Para abordar essa questão, propomos uma metodologia de treinamento em duas etapas que combina ajuste fino supervisionado com aprendizado por reforço para melhorar a precisão e a qualidade do raciocínio dos LLMs. A abordagem proposta ajusta uma série de modelos de RCA para integrar conhecimento de domínio e gerar explicações diagnósticas estruturadas e de múltiplos passos, melhorando tanto a interpretabilidade quanto a eficácia. Experimentos extensivos em vários tamanhos de LLMs mostram ganhos significativos de desempenho em relação aos modelos de raciocínio e não raciocínio state-of-the-art, incluindo uma forte generalização para variantes de teste randomizadas. Esses resultados demonstram o potencial dos LLMs adaptados ao domínio e aprimorados para raciocínio em RCA prática e explicável na operação e gestão de redes.
English
Root Cause Analysis (RCA) in mobile networks remains a challenging task due to the need for interpretability, domain expertise, and causal reasoning. In this work, we propose a lightweight framework that leverages Large Language Models (LLMs) for RCA. To do so, we introduce TeleLogs, a curated dataset of annotated troubleshooting problems designed to benchmark RCA capabilities. Our evaluation reveals that existing open-source reasoning LLMs struggle with these problems, underscoring the need for domain-specific adaptation. To address this issue, we propose a two-stage training methodology that combines supervised fine-tuning with reinforcement learning to improve the accuracy and reasoning quality of LLMs. The proposed approach fine-tunes a series of RCA models to integrate domain knowledge and generate structured, multi-step diagnostic explanations, improving both interpretability and effectiveness. Extensive experiments across multiple LLM sizes show significant performance gains over state-of-the-art reasoning and non-reasoning models, including strong generalization to randomized test variants. These results demonstrate the promise of domain-adapted, reasoning-enhanced LLMs for practical and explainable RCA in network operation and management.
PDF42August 7, 2025