ChatPaper.aiChatPaper

拡散モデルの事前知識を活用した実世界画像の超解像

Exploiting Diffusion Prior for Real-World Image Super-Resolution

May 11, 2023
著者: Jianyi Wang, Zongsheng Yue, Shangchen Zhou, Kelvin C. K. Chan, Chen Change Loy
cs.AI

要旨

事前学習済みのテキストから画像への拡散モデルに内包された事前知識を活用し、ブラインド超解像(SR)を行う新たなアプローチを提案する。具体的には、時間を考慮したエンコーダを採用することで、事前学習済みの合成モデルを変更することなく有望な復元結果を達成し、生成的な事前知識を保持しつつ学習コストを最小化する。拡散モデルに内在する確率性による忠実度の低下を補うため、推論プロセス中にスカラー値を調整するだけで品質と忠実度のバランスを取れる制御可能な特徴ラッピングモジュールを導入する。さらに、事前学習済み拡散モデルの固定サイズ制約を克服するため、任意の解像度に適応可能な漸進的集約サンプリング戦略を開発する。合成および実世界のベンチマークを用いた本手法の包括的評価により、現在の最先端手法に対する優位性が実証された。
English
We present a novel approach to leverage prior knowledge encapsulated in pre-trained text-to-image diffusion models for blind super-resolution (SR). Specifically, by employing our time-aware encoder, we can achieve promising restoration results without altering the pre-trained synthesis model, thereby preserving the generative prior and minimizing training cost. To remedy the loss of fidelity caused by the inherent stochasticity of diffusion models, we introduce a controllable feature wrapping module that allows users to balance quality and fidelity by simply adjusting a scalar value during the inference process. Moreover, we develop a progressive aggregation sampling strategy to overcome the fixed-size constraints of pre-trained diffusion models, enabling adaptation to resolutions of any size. A comprehensive evaluation of our method using both synthetic and real-world benchmarks demonstrates its superiority over current state-of-the-art approaches.
PDF40December 15, 2024