ChatPaper.aiChatPaper

EditVerse: Unificando Edição e Geração de Imagens e Vídeos com Aprendizado em Contexto

EditVerse: Unifying Image and Video Editing and Generation with In-Context Learning

September 24, 2025
Autores: Xuan Ju, Tianyu Wang, Yuqian Zhou, He Zhang, Qing Liu, Nanxuan Zhao, Zhifei Zhang, Yijun Li, Yuanhao Cai, Shaoteng Liu, Daniil Pakhomov, Zhe Lin, Soo Ye Kim, Qiang Xu
cs.AI

Resumo

Os recentes avanços em modelos de base destacam uma tendência clara em direção à unificação e escalabilidade, mostrando capacidades emergentes em diversos domínios. Embora a geração e edição de imagens tenham rapidamente evoluído de frameworks específicos para tarefas para frameworks unificados, a geração e edição de vídeos permanecem fragmentadas devido a limitações arquitetônicas e escassez de dados. Neste trabalho, apresentamos o EditVerse, um framework unificado para geração e edição de imagens e vídeos em um único modelo. Ao representar todas as modalidades, ou seja, texto, imagem e vídeo, como uma sequência unificada de tokens, o EditVerse aproveita a auto-atenção para alcançar aprendizado robusto em contexto, transferência natural de conhecimento entre modalidades e manipulação flexível de entradas e saídas com resoluções e durações arbitrárias. Para lidar com a falta de dados de treinamento para edição de vídeos, projetamos um pipeline de dados escalável que coleta 232 mil amostras de edição de vídeo e as combina com grandes conjuntos de dados de imagens e vídeos para treinamento conjunto. Além disso, apresentamos o EditVerseBench, o primeiro benchmark para edição de vídeo baseada em instruções, abrangendo diversas tarefas e resoluções. Experimentos extensivos e estudos com usuários demonstram que o EditVerse alcança desempenho de ponta, superando modelos open-source e comerciais existentes, enquanto exibe habilidades emergentes de edição e geração entre modalidades.
English
Recent advances in foundation models highlight a clear trend toward unification and scaling, showing emergent capabilities across diverse domains. While image generation and editing have rapidly transitioned from task-specific to unified frameworks, video generation and editing remain fragmented due to architectural limitations and data scarcity. In this work, we introduce EditVerse, a unified framework for image and video generation and editing within a single model. By representing all modalities, i.e., text, image, and video, as a unified token sequence, EditVerse leverages self-attention to achieve robust in-context learning, natural cross-modal knowledge transfer, and flexible handling of inputs and outputs with arbitrary resolutions and durations. To address the lack of video editing training data, we design a scalable data pipeline that curates 232K video editing samples and combines them with large-scale image and video datasets for joint training. Furthermore, we present EditVerseBench, the first benchmark for instruction-based video editing covering diverse tasks and resolutions. Extensive experiments and user studies demonstrate that EditVerse achieves state-of-the-art performance, surpassing existing open-source and commercial models, while exhibiting emergent editing and generation abilities across modalities.
PDF172September 25, 2025