InstantDrag: Migliorare l'interattività nella modifica delle immagini basata su drag-and-dropInstantDrag: Improving Interactivity in Drag-based Image Editing
L'editing delle immagini basato su trascinamento ha recentemente guadagnato popolarità per la sua interattività e precisione. Tuttavia, nonostante la capacità dei modelli testo-immagine di generare campioni in un secondo, l'editing tramite trascinamento rimane indietro a causa della sfida di riflettere accuratamente l'interazione dell'utente pur mantenendo il contenuto dell'immagine. Alcuni approcci esistenti si basano sull'ottimizzazione intensiva dal punto di vista computazionale per immagine o su metodi basati su guida intricati, che richiedono input aggiuntivi come maschere per regioni mobili e istruzioni di testo, compromettendo così l'interattività del processo di editing. Presentiamo InstantDrag, un flusso di lavoro senza ottimizzazione che migliora l'interattività e la velocità, richiedendo solo un'immagine e un'istruzione di trascinamento come input. InstantDrag è composto da due reti attentamente progettate: un generatore di flusso ottico condizionato al trascinamento (FlowGen) e un modello di diffusione condizionato al flusso ottico (FlowDiffusion). InstantDrag apprende la dinamica del movimento per l'editing delle immagini basato su trascinamento in set di dati video del mondo reale scomponendo il compito in generazione di movimento e generazione di immagini condizionata al movimento. Dimostriamo la capacità di InstantDrag di eseguire modifiche rapide e fotorealistiche senza maschere o istruzioni di testo attraverso esperimenti su set di dati video facciali e scene generali. Questi risultati evidenziano l'efficienza del nostro approccio nel gestire l'editing delle immagini basato su trascinamento, rendendolo una soluzione promettente per applicazioni interattive e in tempo reale.