GPT-IMAGE-EDIT-1.5M: Un Conjunto de Datos de Imágenes Generadas por GPT a Escala de Millones
GPT-IMAGE-EDIT-1.5M: A Million-Scale, GPT-Generated Image Dataset
July 28, 2025
Autores: Yuhan Wang, Siwei Yang, Bingchen Zhao, Letian Zhang, Qing Liu, Yuyin Zhou, Cihang Xie
cs.AI
Resumen
Los recientes avances en modelos multimodales de gran escala como GPT-4o han establecido un nuevo estándar para la edición de imágenes guiada por instrucciones de alta fidelidad. Sin embargo, la naturaleza propietaria de estos modelos y sus datos de entrenamiento representa una barrera significativa para la investigación de código abierto. Para cerrar esta brecha, presentamos GPT-IMAGE-EDIT-1.5M, un corpus de edición de imágenes de gran escala y disponible públicamente que contiene más de 1.5 millones de tripletas de alta calidad (instrucción, imagen fuente, imagen editada). Construimos este conjunto de datos de manera sistemática aprovechando las capacidades versátiles de GPT-4o para unificar y refinar tres conjuntos de datos populares de edición de imágenes: OmniEdit, HQ-Edit y UltraEdit. Específicamente, nuestra metodología implica 1) regenerar imágenes de salida para mejorar la calidad visual y la alineación con las instrucciones, y 2) reescribir selectivamente los prompts para mejorar la claridad semántica. Para validar la eficacia de nuestro conjunto de datos, ajustamos modelos avanzados de código abierto en GPT-IMAGE-EDIT-1.5M. Los resultados empíricos son prometedores; por ejemplo, el modelo FluxKontext ajustado logra un rendimiento altamente competitivo en una suite exhaustiva de benchmarks, incluyendo 7.24 en GEdit-EN, 3.80 en ImgEdit-Full y 8.78 en Complex-Edit, demostrando un mejor seguimiento de instrucciones y una mayor calidad perceptual mientras mantiene la identidad. Estas puntuaciones superan notablemente todos los métodos de código abierto publicados previamente y reducen sustancialmente la brecha con los modelos propietarios líderes. Esperamos que la publicación completa de GPT-IMAGE-EDIT-1.5M pueda catalizar una mayor investigación abierta en la edición de imágenes guiada por instrucciones.
English
Recent advancements in large multimodal models like GPT-4o have set a new
standard for high-fidelity, instruction-guided image editing. However, the
proprietary nature of these models and their training data creates a
significant barrier for open-source research. To bridge this gap, we introduce
GPT-IMAGE-EDIT-1.5M, a publicly available, large-scale image-editing corpus
containing more than 1.5 million high-quality triplets (instruction, source
image, edited image). We systematically construct this dataset by leveraging
the versatile capabilities of GPT-4o to unify and refine three popular
image-editing datasets: OmniEdit, HQ-Edit, and UltraEdit. Specifically, our
methodology involves 1) regenerating output images to enhance visual quality
and instruction alignment, and 2) selectively rewriting prompts to improve
semantic clarity. To validate the efficacy of our dataset, we fine-tune
advanced open-source models on GPT-IMAGE-EDIT-1.5M. The empirical results are
exciting, e.g., the fine-tuned FluxKontext achieves highly competitive
performance across a comprehensive suite of benchmarks, including 7.24 on
GEdit-EN, 3.80 on ImgEdit-Full, and 8.78 on Complex-Edit, showing stronger
instruction following and higher perceptual quality while maintaining identity.
These scores markedly exceed all previously published open-source methods and
substantially narrow the gap to leading proprietary models. We hope the full
release of GPT-IMAGE-EDIT-1.5M can help to catalyze further open research in
instruction-guided image editing.