ChatPaper.aiChatPaper

ControlNeXt: Controlo Poderoso e Eficiente para Geração de Imagens e Vídeos

ControlNeXt: Powerful and Efficient Control for Image and Video Generation

August 12, 2024
Autores: Bohao Peng, Jian Wang, Yuechen Zhang, Wenbo Li, Ming-Chang Yang, Jiaya Jia
cs.AI

Resumo

Os modelos de difusão têm demonstrado habilidades notáveis e robustas tanto na geração de imagens quanto de vídeos. Para obter um controle maior sobre os resultados gerados, os pesquisadores introduzem arquiteturas adicionais, como ControlNet, Adapters e ReferenceNet, para integrar controles condicionais. No entanto, os métodos atuais de geração controlável frequentemente exigem recursos computacionais substanciais adicionais, especialmente para a geração de vídeos, e enfrentam desafios no treinamento ou apresentam controle fraco. Neste artigo, propomos o ControlNeXt: um método poderoso e eficiente para geração controlável de imagens e vídeos. Primeiramente, projetamos uma arquitetura mais simples e eficiente, substituindo ramos adicionais pesados com custo adicional mínimo em comparação com o modelo base. Essa estrutura concisa também permite que nosso método se integre perfeitamente com outros pesos LoRA, possibilitando a alteração de estilo sem a necessidade de treinamento adicional. Em relação ao treinamento, reduzimos até 90% dos parâmetros aprendíveis em comparação com as alternativas. Além disso, propomos outro método chamado Normalização Cruzada (CN) como substituto para a 'Zero-Convolution' para alcançar uma convergência de treinamento rápida e estável. Realizamos diversos experimentos com diferentes modelos base em imagens e vídeos, demonstrando a robustez de nosso método.
English
Diffusion models have demonstrated remarkable and robust abilities in both image and video generation. To achieve greater control over generated results, researchers introduce additional architectures, such as ControlNet, Adapters and ReferenceNet, to integrate conditioning controls. However, current controllable generation methods often require substantial additional computational resources, especially for video generation, and face challenges in training or exhibit weak control. In this paper, we propose ControlNeXt: a powerful and efficient method for controllable image and video generation. We first design a more straightforward and efficient architecture, replacing heavy additional branches with minimal additional cost compared to the base model. Such a concise structure also allows our method to seamlessly integrate with other LoRA weights, enabling style alteration without the need for additional training. As for training, we reduce up to 90% of learnable parameters compared to the alternatives. Furthermore, we propose another method called Cross Normalization (CN) as a replacement for Zero-Convolution' to achieve fast and stable training convergence. We have conducted various experiments with different base models across images and videos, demonstrating the robustness of our method.

Summary

AI-Generated Summary

PDF548November 28, 2024