ChatPaper.aiChatPaper

EditVerse: Unificazione dell'Editing e della Generazione di Immagini e Video con Apprendimento In-Contesto

EditVerse: Unifying Image and Video Editing and Generation with In-Context Learning

September 24, 2025
Autori: Xuan Ju, Tianyu Wang, Yuqian Zhou, He Zhang, Qing Liu, Nanxuan Zhao, Zhifei Zhang, Yijun Li, Yuanhao Cai, Shaoteng Liu, Daniil Pakhomov, Zhe Lin, Soo Ye Kim, Qiang Xu
cs.AI

Abstract

I recenti progressi nei modelli di base evidenziano una chiara tendenza verso l'unificazione e il ridimensionamento, mostrando capacità emergenti in diversi domini. Mentre la generazione e la modifica di immagini sono passate rapidamente da framework specifici per singoli compiti a framework unificati, la generazione e la modifica di video rimangono frammentate a causa di limitazioni architetturali e scarsità di dati. In questo lavoro, introduciamo EditVerse, un framework unificato per la generazione e la modifica di immagini e video all'interno di un singolo modello. Rappresentando tutte le modalità, ovvero testo, immagine e video, come una sequenza unificata di token, EditVerse sfrutta l'auto-attenzione per ottenere un apprendimento contestuale robusto, un trasferimento di conoscenza cross-modale naturale e una gestione flessibile di input e output con risoluzioni e durate arbitrarie. Per affrontare la mancanza di dati di addestramento per la modifica video, progettiamo una pipeline di dati scalabile che cura 232K campioni di modifica video e li combina con dataset su larga scala di immagini e video per un addestramento congiunto. Inoltre, presentiamo EditVerseBench, il primo benchmark per la modifica video basata su istruzioni che copre compiti e risoluzioni diverse. Esperimenti estesi e studi sugli utenti dimostrano che EditVerse raggiunge prestazioni all'avanguardia, superando i modelli open-source e commerciali esistenti, mostrando al contempo capacità emergenti di modifica e generazione attraverso le modalità.
English
Recent advances in foundation models highlight a clear trend toward unification and scaling, showing emergent capabilities across diverse domains. While image generation and editing have rapidly transitioned from task-specific to unified frameworks, video generation and editing remain fragmented due to architectural limitations and data scarcity. In this work, we introduce EditVerse, a unified framework for image and video generation and editing within a single model. By representing all modalities, i.e., text, image, and video, as a unified token sequence, EditVerse leverages self-attention to achieve robust in-context learning, natural cross-modal knowledge transfer, and flexible handling of inputs and outputs with arbitrary resolutions and durations. To address the lack of video editing training data, we design a scalable data pipeline that curates 232K video editing samples and combines them with large-scale image and video datasets for joint training. Furthermore, we present EditVerseBench, the first benchmark for instruction-based video editing covering diverse tasks and resolutions. Extensive experiments and user studies demonstrate that EditVerse achieves state-of-the-art performance, surpassing existing open-source and commercial models, while exhibiting emergent editing and generation abilities across modalities.
PDF172September 25, 2025