InstantDrag: Melhorando a Interatividade na Edição de Imagens Baseada em ArrastarInstantDrag: Improving Interactivity in Drag-based Image Editing
A edição de imagens baseada em arrastar ganhou recentemente popularidade por sua interatividade e precisão. No entanto, apesar da capacidade dos modelos de texto-para-imagem de gerar amostras em um segundo, a edição por arrastar ainda fica para trás devido ao desafio de refletir com precisão a interação do usuário mantendo o conteúdo da imagem. Algumas abordagens existentes dependem de otimização intensiva por imagem ou métodos baseados em orientação intrincados, exigindo entradas adicionais como máscaras para regiões móveis e instruções de texto, comprometendo assim a interatividade do processo de edição. Apresentamos o InstantDrag, um pipeline sem otimização que aprimora a interatividade e a velocidade, exigindo apenas uma imagem e uma instrução de arrastar como entrada. O InstantDrag é composto por duas redes cuidadosamente projetadas: um gerador de fluxo óptico condicionado ao arrastar (FlowGen) e um modelo de difusão condicionado ao fluxo óptico (FlowDiffusion). O InstantDrag aprende dinâmicas de movimento para edição de imagens baseada em arrastar em conjuntos de dados de vídeo do mundo real, decompondo a tarefa em geração de movimento e geração de imagem condicionada ao movimento. Demonstramos a capacidade do InstantDrag de realizar edições rápidas e fotorrealistas sem máscaras ou instruções de texto por meio de experimentos em conjuntos de dados de vídeo facial e cenas gerais. Esses resultados destacam a eficiência de nossa abordagem no manuseio da edição de imagens baseada em arrastar, tornando-a uma solução promissora para aplicações interativas em tempo real.