ChatPaper.aiChatPaper

DisPose: Desembaraçando Orientação de Pose para Animação Controlável de Imagens Humanas

DisPose: Disentangling Pose Guidance for Controllable Human Image Animation

December 12, 2024
Autores: Hongxiang Li, Yaowei Li, Yuhang Yang, Junjie Cao, Zhihong Zhu, Xuxin Cheng, Long Chen
cs.AI

Resumo

A animação de imagem humana controlável tem como objetivo gerar vídeos a partir de imagens de referência usando vídeos de direção. Devido aos sinais de controle limitados fornecidos por orientações esparsas (por exemplo, pose de esqueleto), trabalhos recentes têm tentado introduzir condições densas adicionais (por exemplo, mapa de profundidade) para garantir o alinhamento de movimento. No entanto, tais orientações densas estritas prejudicam a qualidade do vídeo gerado quando a forma do corpo do personagem de referência difere significativamente da do vídeo de direção. Neste artigo, apresentamos o DisPose para extrair sinais de controle mais generalizáveis e eficazes sem entrada densa adicional, que desvincula a pose de esqueleto esparsa na animação de imagem humana em orientação de campo de movimento e correspondência de pontos-chave. Especificamente, geramos um campo de movimento denso a partir de um campo de movimento esparsa e da imagem de referência, que fornece orientação densa em nível de região mantendo a generalização do controle de pose esparsa. Também extraímos características de difusão correspondentes a pontos de pose da imagem de referência, e então essas características de ponto são transferidas para a pose alvo para fornecer informações de identidade distintas. Para integrar-se perfeitamente aos modelos existentes, propomos um ControlNet híbrido plug-and-play que melhora a qualidade e consistência dos vídeos gerados enquanto congela os parâmetros do modelo existente. Experimentos qualitativos e quantitativos extensivos demonstram a superioridade do DisPose em comparação com os métodos atuais. Código: https://github.com/lihxxx/DisPose.
English
Controllable human image animation aims to generate videos from reference images using driving videos. Due to the limited control signals provided by sparse guidance (e.g., skeleton pose), recent works have attempted to introduce additional dense conditions (e.g., depth map) to ensure motion alignment. However, such strict dense guidance impairs the quality of the generated video when the body shape of the reference character differs significantly from that of the driving video. In this paper, we present DisPose to mine more generalizable and effective control signals without additional dense input, which disentangles the sparse skeleton pose in human image animation into motion field guidance and keypoint correspondence. Specifically, we generate a dense motion field from a sparse motion field and the reference image, which provides region-level dense guidance while maintaining the generalization of the sparse pose control. We also extract diffusion features corresponding to pose keypoints from the reference image, and then these point features are transferred to the target pose to provide distinct identity information. To seamlessly integrate into existing models, we propose a plug-and-play hybrid ControlNet that improves the quality and consistency of generated videos while freezing the existing model parameters. Extensive qualitative and quantitative experiments demonstrate the superiority of DisPose compared to current methods. Code: https://github.com/lihxxx/DisPose{https://github.com/lihxxx/DisPose}.
PDF82December 13, 2024