ChatPaper.aiChatPaper

Hilft mehr Rechenleistung zur Inferenzzeit wirklich der Robustheit?

Does More Inference-Time Compute Really Help Robustness?

July 21, 2025
papers.authors: Tong Wu, Chong Xiang, Jiachen T. Wang, Weichen Yu, Chawin Sitawarin, Vikash Sehwag, Prateek Mittal
cs.AI

papers.abstract

Kürzlich zeigten Zaremba et al., dass eine Erhöhung der Inferenzzeit-Berechnung die Robustheit großer proprietärer Reasoning-LLMs verbessert. In diesem Artikel zeigen wir zunächst, dass auch kleinere, Open-Source-Modelle (z. B. DeepSeek R1, Qwen3, Phi-reasoning) von einer Inferenzzeit-Skalierung mittels einer einfachen Budget-Forcing-Strategie profitieren können. Noch wichtiger ist, dass wir eine implizite Annahme in früheren Arbeiten aufdecken und kritisch untersuchen: Zwischenschritte des Reasonings sind vor Angreifern verborgen. Indem wir diese Annahme lockern, identifizieren wir ein bedeutendes Sicherheitsrisiko, das intuitiv motiviert und empirisch als ein inverses Skalierungsgesetz bestätigt wird: Wenn Zwischenschritte des Reasonings explizit zugänglich werden, verringert eine erhöhte Inferenzzeit-Berechnung konsequent die Robustheit des Modells. Schließlich diskutieren wir praktische Szenarien, in denen Modelle mit verborgenen Reasoning-Ketten dennoch anfällig für Angriffe sind, wie z. B. Modelle mit tool-integriertem Reasoning und fortgeschrittenen Reasoning-Extraktionsangriffen. Unsere Ergebnisse zeigen insgesamt, dass die Robustheitsvorteile der Inferenzzeit-Skalierung stark von der adversarischen Umgebung und dem Einsatzkontext abhängen. Wir appellieren an Praktiker, diese subtilen Abwägungen sorgfältig zu berücksichtigen, bevor sie die Inferenzzeit-Skalierung in sicherheitskritischen, realen Anwendungen einsetzen.
English
Recently, Zaremba et al. demonstrated that increasing inference-time computation improves robustness in large proprietary reasoning LLMs. In this paper, we first show that smaller-scale, open-source models (e.g., DeepSeek R1, Qwen3, Phi-reasoning) can also benefit from inference-time scaling using a simple budget forcing strategy. More importantly, we reveal and critically examine an implicit assumption in prior work: intermediate reasoning steps are hidden from adversaries. By relaxing this assumption, we identify an important security risk, intuitively motivated and empirically verified as an inverse scaling law: if intermediate reasoning steps become explicitly accessible, increased inference-time computation consistently reduces model robustness. Finally, we discuss practical scenarios where models with hidden reasoning chains are still vulnerable to attacks, such as models with tool-integrated reasoning and advanced reasoning extraction attacks. Our findings collectively demonstrate that the robustness benefits of inference-time scaling depend heavily on the adversarial setting and deployment context. We urge practitioners to carefully weigh these subtle trade-offs before applying inference-time scaling in security-sensitive, real-world applications.
PDF61July 23, 2025