ChatPaper.aiChatPaper

Helpt meer rekentijd tijdens inferentie echt voor robuustheid?

Does More Inference-Time Compute Really Help Robustness?

July 21, 2025
Auteurs: Tong Wu, Chong Xiang, Jiachen T. Wang, Weichen Yu, Chawin Sitawarin, Vikash Sehwag, Prateek Mittal
cs.AI

Samenvatting

Onlangs hebben Zaremba et al. aangetoond dat het verhogen van de rekentijd tijdens inferentie de robuustheid verbetert in grote, propriëtaire redeneer-LLM's. In dit artikel laten we eerst zien dat ook kleinschalige, open-source modellen (bijv. DeepSeek R1, Qwen3, Phi-reasoning) baat kunnen hebben bij het schalen van inferentietijd door middel van een eenvoudige budgetforcingstrategie. Belangrijker is dat we een impliciete aanname in eerder werk blootleggen en kritisch onderzoeken: tussenliggende redeneerstappen zijn verborgen voor tegenstanders. Door deze aanname te versoepelen, identificeren we een belangrijk beveiligingsrisico, intuïtief gemotiveerd en empirisch geverifieerd als een omgekeerde schaalwet: als tussenliggende redeneerstappen expliciet toegankelijk worden, vermindert een verhoogde rekentijd tijdens inferentie consistent de robuustheid van het model. Ten slotte bespreken we praktische scenario's waarin modellen met verborgen redeneerketens nog steeds kwetsbaar zijn voor aanvallen, zoals modellen met tool-geïntegreerd redeneren en geavanceerde redeneerextractie-aanvallen. Onze bevindingen tonen gezamenlijk aan dat de robuustheidsvoordelen van het schalen van inferentietijd sterk afhankelijk zijn van de adversariële setting en de implementatiecontext. We dringen er bij praktijkmensen op aan om deze subtiele afwegingen zorgvuldig te overwegen voordat ze inferentie-schaling toepassen in beveiligingsgevoelige, real-world toepassingen.
English
Recently, Zaremba et al. demonstrated that increasing inference-time computation improves robustness in large proprietary reasoning LLMs. In this paper, we first show that smaller-scale, open-source models (e.g., DeepSeek R1, Qwen3, Phi-reasoning) can also benefit from inference-time scaling using a simple budget forcing strategy. More importantly, we reveal and critically examine an implicit assumption in prior work: intermediate reasoning steps are hidden from adversaries. By relaxing this assumption, we identify an important security risk, intuitively motivated and empirically verified as an inverse scaling law: if intermediate reasoning steps become explicitly accessible, increased inference-time computation consistently reduces model robustness. Finally, we discuss practical scenarios where models with hidden reasoning chains are still vulnerable to attacks, such as models with tool-integrated reasoning and advanced reasoning extraction attacks. Our findings collectively demonstrate that the robustness benefits of inference-time scaling depend heavily on the adversarial setting and deployment context. We urge practitioners to carefully weigh these subtle trade-offs before applying inference-time scaling in security-sensitive, real-world applications.
PDF71July 23, 2025