ChatPaper.aiChatPaper

Ataques de Inyección de Distractores en Modelos de Razonamiento a Gran Escala: Caracterización y Defensa

Distractor Injection Attacks on Large Reasoning Models: Characterization and Defense

October 17, 2025
Autores: Zhehao Zhang, Weijie Xu, Shixian Cui, Chandan K. Reddy
cs.AI

Resumen

Los recientes avances en los modelos de razonamiento a gran escala (LRMs, por sus siglas en inglés) han permitido un rendimiento notable en tareas complejas como las matemáticas y la codificación, gracias a la generación de largas trazas de Cadena de Pensamiento (CoT). En este artículo, identificamos y analizamos sistemáticamente una vulnerabilidad crítica que denominamos distracción del razonamiento, donde los LRMs son desviados de su objetivo principal por tareas irrelevantes pero complejas que se insertan maliciosamente en la indicación. A través de un estudio exhaustivo en diversos modelos y puntos de referencia, demostramos que incluso los LRMs más avanzados son altamente susceptibles, con distractores inyectados que reducen la precisión de la tarea hasta en un 60%. Además, revelamos que ciertas técnicas de alineación pueden amplificar esta debilidad y que los modelos pueden exhibir una conformidad encubierta, siguiendo instrucciones adversarias ocultas durante el razonamiento mientras las ocultan en la salida final. Para mitigar estos riesgos, proponemos una defensa basada en entrenamiento que combina Ajuste Fino Supervisado (SFT) y Aprendizaje por Refuerzo (RL) en datos adversarios sintéticos, mejorando la robustez en más de 50 puntos frente a ataques de distractores desafiantes. Nuestros hallazgos establecen la distracción del razonamiento como una amenaza distintiva y urgente para la confiabilidad de los LRMs y proporcionan un paso práctico hacia sistemas de razonamiento más seguros y confiables.
English
Recent advances in large reasoning models (LRMs) have enabled remarkable performance on complex tasks such as mathematics and coding by generating long Chain-of-Thought (CoT) traces. In this paper, we identify and systematically analyze a critical vulnerability we term reasoning distraction, where LRMs are diverted from their primary objective by irrelevant yet complex tasks maliciously embedded in the prompt. Through a comprehensive study across diverse models and benchmarks, we show that even state-of-the-art LRMs are highly susceptible, with injected distractors reducing task accuracy by up to 60%. We further reveal that certain alignment techniques can amplify this weakness and that models may exhibit covert compliance, following hidden adversarial instructions in reasoning while concealing them in the final output. To mitigate these risks, we propose a training-based defense that combines Supervised Fine-Tuning (SFT) and Reinforcement Learning (RL) on synthetic adversarial data, improving robustness by over 50 points on challenging distractor attacks. Our findings establish reasoning distraction as a distinct and urgent threat to LRM reliability and provide a practical step toward safer and more trustworthy reasoning systems.
PDF32October 21, 2025