ノイズハイパーネットワーク:拡散モデルにおけるテスト時計算の償却
Noise Hypernetworks: Amortizing Test-Time Compute in Diffusion Models
August 13, 2025
著者: Luca Eyring, Shyamgopal Karthik, Alexey Dosovitskiy, Nataniel Ruiz, Zeynep Akata
cs.AI
要旨
テストタイムスケーリングの新たなパラダイムは、大規模言語モデル(LLMs)(例:推論モデル)や生成視覚モデルにおいて驚くべきブレークスルーをもたらし、推論時に追加の計算リソースを割り当てることで、ますます複雑化する問題に効果的に対処できるようになりました。このアプローチの改善にもかかわらず、重要な制限が浮上しています:計算時間の大幅な増加により、プロセスが遅くなり、多くのアプリケーションでは実用的でなくなっています。このパラダイムの成功とその使用の増加を踏まえ、私たちは推論のオーバーヘッドを回避しながらその利点を維持することを目指しています。本研究では、ポストトレーニング中にテストタイムスケーリングの知識をモデルに統合するという重要な問題に対する一つの解決策を提案します。具体的には、拡散モデルにおける報酬誘導型テストタイムノイズ最適化を、初期入力ノイズを調整するノイズハイパーネットワークに置き換えます。私たちは、蒸留された生成器に対して報酬に傾いた分布を学習するための理論的に根拠のあるフレームワークを提案し、ベースモデルへの忠実性を維持しながら所望の特性を最適化する扱いやすいノイズ空間目的関数を通じてこれを実現します。私たちのアプローチが、明示的なテストタイム最適化から得られる品質向上の大部分を、計算コストのごく一部で回復することを示します。コードはhttps://github.com/ExplainableML/HyperNoiseで公開されています。
English
The new paradigm of test-time scaling has yielded remarkable breakthroughs in
Large Language Models (LLMs) (e.g. reasoning models) and in generative vision
models, allowing models to allocate additional computation during inference to
effectively tackle increasingly complex problems. Despite the improvements of
this approach, an important limitation emerges: the substantial increase in
computation time makes the process slow and impractical for many applications.
Given the success of this paradigm and its growing usage, we seek to preserve
its benefits while eschewing the inference overhead. In this work we propose
one solution to the critical problem of integrating test-time scaling knowledge
into a model during post-training. Specifically, we replace reward guided
test-time noise optimization in diffusion models with a Noise Hypernetwork that
modulates initial input noise. We propose a theoretically grounded framework
for learning this reward-tilted distribution for distilled generators, through
a tractable noise-space objective that maintains fidelity to the base model
while optimizing for desired characteristics. We show that our approach
recovers a substantial portion of the quality gains from explicit test-time
optimization at a fraction of the computational cost. Code is available at
https://github.com/ExplainableML/HyperNoise