ChatPaper.aiChatPaper

UltraEdit: Edição de Imagens Detalhada Baseada em Instruções em Escala

UltraEdit: Instruction-based Fine-Grained Image Editing at Scale

July 7, 2024
Autores: Haozhe Zhao, Xiaojian Ma, Liang Chen, Shuzheng Si, Rujie Wu, Kaikai An, Peiyu Yu, Minjia Zhang, Qing Li, Baobao Chang
cs.AI

Resumo

Este artigo apresenta o UltraEdit, um conjunto de dados gerado automaticamente em larga escala (aproximadamente 4 milhões de amostras de edição) para edição de imagens baseada em instruções. Nossa ideia principal é abordar as desvantagens nos conjuntos de dados de edição de imagem existentes, como InstructPix2Pix e MagicBrush, e fornecer uma abordagem sistemática para produzir amostras de edição de imagem em massa e de alta qualidade. O UltraEdit oferece várias vantagens distintas: 1) Ele apresenta uma gama mais ampla de instruções de edição, aproveitando a criatividade de grandes modelos de linguagem (LLMs) juntamente com exemplos de edição no contexto de avaliadores humanos; 2) Suas fontes de dados são baseadas em imagens reais, incluindo fotografias e obras de arte, o que proporciona maior diversidade e redução de viés em comparação com conjuntos de dados gerados exclusivamente por modelos de texto para imagem; 3) Ele também suporta edição baseada em região, aprimorada por anotações de região de alta qualidade produzidas automaticamente. Nossos experimentos mostram que os baselines de edição baseados em difusão canônica treinados no conjunto de dados UltraEdit estabelecem novos recordes nos benchmarks MagicBrush e Emu-Edit. Nossa análise confirma ainda o papel crucial de âncoras de imagem reais e dados de edição baseados em região. O conjunto de dados, código e modelos podem ser encontrados em https://ultra-editing.github.io.
English
This paper presents UltraEdit, a large-scale (approximately 4 million editing samples), automatically generated dataset for instruction-based image editing. Our key idea is to address the drawbacks in existing image editing datasets like InstructPix2Pix and MagicBrush, and provide a systematic approach to producing massive and high-quality image editing samples. UltraEdit offers several distinct advantages: 1) It features a broader range of editing instructions by leveraging the creativity of large language models (LLMs) alongside in-context editing examples from human raters; 2) Its data sources are based on real images, including photographs and artworks, which provide greater diversity and reduced bias compared to datasets solely generated by text-to-image models; 3) It also supports region-based editing, enhanced by high-quality, automatically produced region annotations. Our experiments show that canonical diffusion-based editing baselines trained on UltraEdit set new records on MagicBrush and Emu-Edit benchmarks. Our analysis further confirms the crucial role of real image anchors and region-based editing data. The dataset, code, and models can be found in https://ultra-editing.github.io.
PDF151November 28, 2024