Hilft mehr Rechenleistung zur Inferenzzeit wirklich der Robustheit?
Does More Inference-Time Compute Really Help Robustness?
July 21, 2025
papers.authors: Tong Wu, Chong Xiang, Jiachen T. Wang, Weichen Yu, Chawin Sitawarin, Vikash Sehwag, Prateek Mittal
cs.AI
papers.abstract
Kürzlich zeigten Zaremba et al., dass eine Erhöhung der Inferenzzeit-Berechnung die Robustheit großer proprietärer Reasoning-LLMs verbessert. In diesem Artikel zeigen wir zunächst, dass auch kleinere, Open-Source-Modelle (z. B. DeepSeek R1, Qwen3, Phi-reasoning) von einer Inferenzzeit-Skalierung mittels einer einfachen Budget-Forcing-Strategie profitieren können. Noch wichtiger ist, dass wir eine implizite Annahme in früheren Arbeiten aufdecken und kritisch untersuchen: Zwischenschritte des Reasonings sind vor Angreifern verborgen. Indem wir diese Annahme lockern, identifizieren wir ein bedeutendes Sicherheitsrisiko, das intuitiv motiviert und empirisch als ein inverses Skalierungsgesetz bestätigt wird: Wenn Zwischenschritte des Reasonings explizit zugänglich werden, verringert eine erhöhte Inferenzzeit-Berechnung konsequent die Robustheit des Modells. Schließlich diskutieren wir praktische Szenarien, in denen Modelle mit verborgenen Reasoning-Ketten dennoch anfällig für Angriffe sind, wie z. B. Modelle mit tool-integriertem Reasoning und fortgeschrittenen Reasoning-Extraktionsangriffen. Unsere Ergebnisse zeigen insgesamt, dass die Robustheitsvorteile der Inferenzzeit-Skalierung stark von der adversarischen Umgebung und dem Einsatzkontext abhängen. Wir appellieren an Praktiker, diese subtilen Abwägungen sorgfältig zu berücksichtigen, bevor sie die Inferenzzeit-Skalierung in sicherheitskritischen, realen Anwendungen einsetzen.
English
Recently, Zaremba et al. demonstrated that increasing inference-time
computation improves robustness in large proprietary reasoning LLMs. In this
paper, we first show that smaller-scale, open-source models (e.g., DeepSeek R1,
Qwen3, Phi-reasoning) can also benefit from inference-time scaling using a
simple budget forcing strategy. More importantly, we reveal and critically
examine an implicit assumption in prior work: intermediate reasoning steps are
hidden from adversaries. By relaxing this assumption, we identify an important
security risk, intuitively motivated and empirically verified as an inverse
scaling law: if intermediate reasoning steps become explicitly accessible,
increased inference-time computation consistently reduces model robustness.
Finally, we discuss practical scenarios where models with hidden reasoning
chains are still vulnerable to attacks, such as models with tool-integrated
reasoning and advanced reasoning extraction attacks. Our findings collectively
demonstrate that the robustness benefits of inference-time scaling depend
heavily on the adversarial setting and deployment context. We urge
practitioners to carefully weigh these subtle trade-offs before applying
inference-time scaling in security-sensitive, real-world applications.