ChatPaper.aiChatPaper

MagicStick: Edição de Vídeo Controlável via Manipulação de Transformações

MagicStick: Controllable Video Editing via Control Handle Transformations

December 5, 2023
Autores: Yue Ma, Xiaodong Cun, Yingqing He, Chenyang Qi, Xintao Wang, Ying Shan, Xiu Li, Qifeng Chen
cs.AI

Resumo

A edição de vídeo baseada em texto tem recentemente atraído considerável interesse na alteração de estilo ou substituição de objetos com uma estrutura semelhante. Além disso, demonstramos que propriedades como forma, tamanho, localização, movimento, etc., também podem ser editadas em vídeos. Nossa principal percepção é que as transformações de quadros-chave de características internas específicas (por exemplo, mapas de borda de objetos ou pose humana) podem facilmente se propagar para outros quadros, fornecendo orientação para a geração. Assim, propomos o MagicStick, um método de edição de vídeo controlável que edita as propriedades do vídeo utilizando a transformação nos sinais de controle internos extraídos. Em detalhes, para manter a aparência, expandimos tanto o modelo de difusão de imagens pré-treinado quanto o ControlNet para a dimensão temporal e treinamos camadas de adaptação de baixa classificação (LORA) para se ajustar a cenas específicas. Em seguida, na edição, realizamos uma estrutura de inversão e edição. Diferentemente, o ControlNet ajustado é introduzido tanto na inversão quanto na geração para orientação de atenção com a mistura de atenção proposta entre os mapas de atenção espacial da inversão e da edição. Apesar de sucinto, nosso método é o primeiro a mostrar a capacidade de edição de propriedades de vídeo a partir de um modelo pré-treinado de texto para imagem. Apresentamos experimentos em diversos exemplos dentro de nossa estrutura unificada. Também comparamos com a edição baseada em texto consciente da forma e a geração de vídeo de movimento artesanal, demonstrando nossa superior consistência temporal e capacidade de edição em relação a trabalhos anteriores. O código e os modelos serão disponibilizados publicamente.
English
Text-based video editing has recently attracted considerable interest in changing the style or replacing the objects with a similar structure. Beyond this, we demonstrate that properties such as shape, size, location, motion, etc., can also be edited in videos. Our key insight is that the keyframe transformations of the specific internal feature (e.g., edge maps of objects or human pose), can easily propagate to other frames to provide generation guidance. We thus propose MagicStick, a controllable video editing method that edits the video properties by utilizing the transformation on the extracted internal control signals. In detail, to keep the appearance, we inflate both the pretrained image diffusion model and ControlNet to the temporal dimension and train low-rank adaptions (LORA) layers to fit the specific scenes. Then, in editing, we perform an inversion and editing framework. Differently, finetuned ControlNet is introduced in both inversion and generation for attention guidance with the proposed attention remix between the spatial attention maps of inversion and editing. Yet succinct, our method is the first method to show the ability of video property editing from the pre-trained text-to-image model. We present experiments on numerous examples within our unified framework. We also compare with shape-aware text-based editing and handcrafted motion video generation, demonstrating our superior temporal consistency and editing capability than previous works. The code and models will be made publicly available.
PDF112December 15, 2024