ChatPaper.aiChatPaper

Hyperréseaux de bruit : Amortissement du calcul au moment de l'inférence dans les modèles de diffusion

Noise Hypernetworks: Amortizing Test-Time Compute in Diffusion Models

August 13, 2025
papers.authors: Luca Eyring, Shyamgopal Karthik, Alexey Dosovitskiy, Nataniel Ruiz, Zeynep Akata
cs.AI

papers.abstract

Le nouveau paradigme de mise à l'échelle au moment du test a permis des avancées remarquables dans les modèles de langage à grande échelle (LLMs) (par exemple, les modèles de raisonnement) et dans les modèles génératifs visuels, permettant aux modèles d'allouer des calculs supplémentaires lors de l'inférence pour résoudre efficacement des problèmes de plus en plus complexes. Malgré les améliorations apportées par cette approche, une limitation importante apparaît : l'augmentation substantielle du temps de calcul rend le processus lent et peu pratique pour de nombreuses applications. Compte tenu du succès de ce paradigme et de son utilisation croissante, nous cherchons à préserver ses avantages tout en évitant la surcharge d'inférence. Dans ce travail, nous proposons une solution au problème critique de l'intégration des connaissances de mise à l'échelle au moment du test dans un modèle après l'entraînement. Plus précisément, nous remplaçons l'optimisation du bruit guidée par récompense au moment du test dans les modèles de diffusion par un Hypernetwork de Bruit qui module le bruit initial en entrée. Nous proposons un cadre théoriquement fondé pour apprendre cette distribution inclinée par récompense pour les générateurs distillés, à travers un objectif dans l'espace du bruit qui maintient la fidélité au modèle de base tout en optimisant les caractéristiques souhaitées. Nous montrons que notre approche récupère une partie substantielle des gains de qualité provenant de l'optimisation explicite au moment du test à une fraction du coût de calcul. Le code est disponible à l'adresse https://github.com/ExplainableML/HyperNoise.
English
The new paradigm of test-time scaling has yielded remarkable breakthroughs in Large Language Models (LLMs) (e.g. reasoning models) and in generative vision models, allowing models to allocate additional computation during inference to effectively tackle increasingly complex problems. Despite the improvements of this approach, an important limitation emerges: the substantial increase in computation time makes the process slow and impractical for many applications. Given the success of this paradigm and its growing usage, we seek to preserve its benefits while eschewing the inference overhead. In this work we propose one solution to the critical problem of integrating test-time scaling knowledge into a model during post-training. Specifically, we replace reward guided test-time noise optimization in diffusion models with a Noise Hypernetwork that modulates initial input noise. We propose a theoretically grounded framework for learning this reward-tilted distribution for distilled generators, through a tractable noise-space objective that maintains fidelity to the base model while optimizing for desired characteristics. We show that our approach recovers a substantial portion of the quality gains from explicit test-time optimization at a fraction of the computational cost. Code is available at https://github.com/ExplainableML/HyperNoise
PDF62August 14, 2025