ChatPaper.aiChatPaper

Explorando o Prior de Difusão para Super-Resolução de Imagens do Mundo Real

Exploiting Diffusion Prior for Real-World Image Super-Resolution

May 11, 2023
Autores: Jianyi Wang, Zongsheng Yue, Shangchen Zhou, Kelvin C. K. Chan, Chen Change Loy
cs.AI

Resumo

Apresentamos uma abordagem inovadora para aproveitar o conhecimento prévio encapsulado em modelos de difusão texto-imagem pré-treinados para super-resolução (SR) cega. Especificamente, ao empregar nosso codificador consciente do tempo, podemos alcançar resultados promissores de restauração sem alterar o modelo de síntese pré-treinado, preservando assim o prior gerativo e minimizando o custo de treinamento. Para remediar a perda de fidelidade causada pela estocasticidade inerente dos modelos de difusão, introduzimos um módulo de ajuste de características controlável que permite aos usuários equilibrar qualidade e fidelidade simplesmente ajustando um valor escalar durante o processo de inferência. Além disso, desenvolvemos uma estratégia de amostragem de agregação progressiva para superar as restrições de tamanho fixo dos modelos de difusão pré-treinados, permitindo a adaptação a resoluções de qualquer tamanho. Uma avaliação abrangente do nosso método utilizando benchmarks sintéticos e do mundo real demonstra sua superioridade em relação às abordagens state-of-the-art atuais.
English
We present a novel approach to leverage prior knowledge encapsulated in pre-trained text-to-image diffusion models for blind super-resolution (SR). Specifically, by employing our time-aware encoder, we can achieve promising restoration results without altering the pre-trained synthesis model, thereby preserving the generative prior and minimizing training cost. To remedy the loss of fidelity caused by the inherent stochasticity of diffusion models, we introduce a controllable feature wrapping module that allows users to balance quality and fidelity by simply adjusting a scalar value during the inference process. Moreover, we develop a progressive aggregation sampling strategy to overcome the fixed-size constraints of pre-trained diffusion models, enabling adaptation to resolutions of any size. A comprehensive evaluation of our method using both synthetic and real-world benchmarks demonstrates its superiority over current state-of-the-art approaches.
PDF40December 15, 2024