Helpt meer rekentijd tijdens inferentie echt voor robuustheid?
Does More Inference-Time Compute Really Help Robustness?
July 21, 2025
Auteurs: Tong Wu, Chong Xiang, Jiachen T. Wang, Weichen Yu, Chawin Sitawarin, Vikash Sehwag, Prateek Mittal
cs.AI
Samenvatting
Onlangs hebben Zaremba et al. aangetoond dat het verhogen van de rekentijd tijdens inferentie de robuustheid verbetert in grote, propriëtaire redeneer-LLM's. In dit artikel laten we eerst zien dat ook kleinschalige, open-source modellen (bijv. DeepSeek R1, Qwen3, Phi-reasoning) baat kunnen hebben bij het schalen van inferentietijd door middel van een eenvoudige budgetforcingstrategie. Belangrijker is dat we een impliciete aanname in eerder werk blootleggen en kritisch onderzoeken: tussenliggende redeneerstappen zijn verborgen voor tegenstanders. Door deze aanname te versoepelen, identificeren we een belangrijk beveiligingsrisico, intuïtief gemotiveerd en empirisch geverifieerd als een omgekeerde schaalwet: als tussenliggende redeneerstappen expliciet toegankelijk worden, vermindert een verhoogde rekentijd tijdens inferentie consistent de robuustheid van het model. Ten slotte bespreken we praktische scenario's waarin modellen met verborgen redeneerketens nog steeds kwetsbaar zijn voor aanvallen, zoals modellen met tool-geïntegreerd redeneren en geavanceerde redeneerextractie-aanvallen. Onze bevindingen tonen gezamenlijk aan dat de robuustheidsvoordelen van het schalen van inferentietijd sterk afhankelijk zijn van de adversariële setting en de implementatiecontext. We dringen er bij praktijkmensen op aan om deze subtiele afwegingen zorgvuldig te overwegen voordat ze inferentie-schaling toepassen in beveiligingsgevoelige, real-world toepassingen.
English
Recently, Zaremba et al. demonstrated that increasing inference-time
computation improves robustness in large proprietary reasoning LLMs. In this
paper, we first show that smaller-scale, open-source models (e.g., DeepSeek R1,
Qwen3, Phi-reasoning) can also benefit from inference-time scaling using a
simple budget forcing strategy. More importantly, we reveal and critically
examine an implicit assumption in prior work: intermediate reasoning steps are
hidden from adversaries. By relaxing this assumption, we identify an important
security risk, intuitively motivated and empirically verified as an inverse
scaling law: if intermediate reasoning steps become explicitly accessible,
increased inference-time computation consistently reduces model robustness.
Finally, we discuss practical scenarios where models with hidden reasoning
chains are still vulnerable to attacks, such as models with tool-integrated
reasoning and advanced reasoning extraction attacks. Our findings collectively
demonstrate that the robustness benefits of inference-time scaling depend
heavily on the adversarial setting and deployment context. We urge
practitioners to carefully weigh these subtle trade-offs before applying
inference-time scaling in security-sensitive, real-world applications.