ChatPaper.aiChatPaper

Mais Computação no Momento da Inferência Realmente Ajuda na Robustez?

Does More Inference-Time Compute Really Help Robustness?

July 21, 2025
Autores: Tong Wu, Chong Xiang, Jiachen T. Wang, Weichen Yu, Chawin Sitawarin, Vikash Sehwag, Prateek Mittal
cs.AI

Resumo

Recentemente, Zaremba et al. demonstraram que aumentar a computação no momento da inferência melhora a robustez em grandes LLMs proprietários de raciocínio. Neste artigo, primeiro mostramos que modelos de menor escala e de código aberto (por exemplo, DeepSeek R1, Qwen3, Phi-reasoning) também podem se beneficiar do escalonamento no momento da inferência usando uma simples estratégia de forçamento de orçamento. Mais importante, revelamos e examinamos criticamente uma suposição implícita em trabalhos anteriores: os passos intermediários de raciocínio estão ocultos dos adversários. Ao relaxar essa suposição, identificamos um importante risco de segurança, intuitivamente motivado e empiricamente verificado como uma lei de escalonamento inverso: se os passos intermediários de raciocínio se tornam explicitamente acessíveis, o aumento da computação no momento da inferência reduz consistentemente a robustez do modelo. Por fim, discutimos cenários práticos em que modelos com cadeias de raciocínio ocultas ainda são vulneráveis a ataques, como modelos com raciocínio integrado a ferramentas e ataques avançados de extração de raciocínio. Nossas descobertas demonstram coletivamente que os benefícios de robustez do escalonamento no momento da inferência dependem fortemente do cenário adversário e do contexto de implantação. Instamos os profissionais a ponderar cuidadosamente essas compensações sutis antes de aplicar o escalonamento no momento da inferência em aplicações do mundo real sensíveis à segurança.
English
Recently, Zaremba et al. demonstrated that increasing inference-time computation improves robustness in large proprietary reasoning LLMs. In this paper, we first show that smaller-scale, open-source models (e.g., DeepSeek R1, Qwen3, Phi-reasoning) can also benefit from inference-time scaling using a simple budget forcing strategy. More importantly, we reveal and critically examine an implicit assumption in prior work: intermediate reasoning steps are hidden from adversaries. By relaxing this assumption, we identify an important security risk, intuitively motivated and empirically verified as an inverse scaling law: if intermediate reasoning steps become explicitly accessible, increased inference-time computation consistently reduces model robustness. Finally, we discuss practical scenarios where models with hidden reasoning chains are still vulnerable to attacks, such as models with tool-integrated reasoning and advanced reasoning extraction attacks. Our findings collectively demonstrate that the robustness benefits of inference-time scaling depend heavily on the adversarial setting and deployment context. We urge practitioners to carefully weigh these subtle trade-offs before applying inference-time scaling in security-sensitive, real-world applications.
PDF61July 23, 2025