ChatPaper.aiChatPaper

¿Realmente ayuda un mayor cómputo en el tiempo de inferencia a la robustez?

Does More Inference-Time Compute Really Help Robustness?

July 21, 2025
Autores: Tong Wu, Chong Xiang, Jiachen T. Wang, Weichen Yu, Chawin Sitawarin, Vikash Sehwag, Prateek Mittal
cs.AI

Resumen

Recientemente, Zaremba et al. demostraron que aumentar el cómputo durante la inferencia mejora la robustez en grandes modelos de razonamiento lingüístico (LLMs) propietarios. En este artículo, primero mostramos que modelos de menor escala y de código abierto (por ejemplo, DeepSeek R1, Qwen3, Phi-reasoning) también pueden beneficiarse del escalado durante la inferencia mediante una estrategia simple de forzado de presupuesto. Más importante aún, revelamos y examinamos críticamente una suposición implícita en trabajos previos: los pasos intermedios de razonamiento están ocultos para los adversarios. Al relajar esta suposición, identificamos un riesgo de seguridad importante, intuitivamente motivado y empíricamente verificado como una ley de escalado inverso: si los pasos intermedios de razonamiento se vuelven explícitamente accesibles, el aumento del cómputo durante la inferencia reduce consistentemente la robustez del modelo. Finalmente, discutimos escenarios prácticos en los que los modelos con cadenas de razonamiento ocultas siguen siendo vulnerables a ataques, como modelos con razonamiento integrado en herramientas y ataques avanzados de extracción de razonamiento. Nuestros hallazgos demuestran colectivamente que los beneficios de robustez del escalado durante la inferencia dependen en gran medida del entorno adversarial y del contexto de implementación. Instamos a los profesionales a sopesar cuidadosamente estos sutiles compromisos antes de aplicar el escalado durante la inferencia en aplicaciones del mundo real sensibles a la seguridad.
English
Recently, Zaremba et al. demonstrated that increasing inference-time computation improves robustness in large proprietary reasoning LLMs. In this paper, we first show that smaller-scale, open-source models (e.g., DeepSeek R1, Qwen3, Phi-reasoning) can also benefit from inference-time scaling using a simple budget forcing strategy. More importantly, we reveal and critically examine an implicit assumption in prior work: intermediate reasoning steps are hidden from adversaries. By relaxing this assumption, we identify an important security risk, intuitively motivated and empirically verified as an inverse scaling law: if intermediate reasoning steps become explicitly accessible, increased inference-time computation consistently reduces model robustness. Finally, we discuss practical scenarios where models with hidden reasoning chains are still vulnerable to attacks, such as models with tool-integrated reasoning and advanced reasoning extraction attacks. Our findings collectively demonstrate that the robustness benefits of inference-time scaling depend heavily on the adversarial setting and deployment context. We urge practitioners to carefully weigh these subtle trade-offs before applying inference-time scaling in security-sensitive, real-world applications.
PDF61July 23, 2025