ChatPaper.aiChatPaper

GPT-IMAGE-EDIT-1.5M : Un jeu de données d'images à l'échelle du million générées par GPT

GPT-IMAGE-EDIT-1.5M: A Million-Scale, GPT-Generated Image Dataset

July 28, 2025
papers.authors: Yuhan Wang, Siwei Yang, Bingchen Zhao, Letian Zhang, Qing Liu, Yuyin Zhou, Cihang Xie
cs.AI

papers.abstract

Les récentes avancées dans les grands modèles multimodaux comme GPT-4o ont établi un nouveau standard pour l'édition d'images guidée par instructions avec une haute fidélité. Cependant, la nature propriétaire de ces modèles et de leurs données d'entraînement constitue un obstacle majeur pour la recherche open source. Pour combler cette lacune, nous présentons GPT-IMAGE-EDIT-1.5M, un corpus d'édition d'images à grande échelle et accessible au public, contenant plus de 1,5 million de triplets de haute qualité (instruction, image source, image éditée). Nous construisons systématiquement ce jeu de données en exploitant les capacités polyvalentes de GPT-4o pour unifier et affiner trois jeux de données populaires d'édition d'images : OmniEdit, HQ-Edit et UltraEdit. Plus précisément, notre méthodologie implique 1) la régénération des images de sortie pour améliorer la qualité visuelle et l'alignement avec les instructions, et 2) la réécriture sélective des prompts pour accroître la clarté sémantique. Pour valider l'efficacité de notre jeu de données, nous affinons des modèles open source avancés sur GPT-IMAGE-EDIT-1.5M. Les résultats empiriques sont prometteurs : par exemple, le modèle FluxKontext affiche des performances très compétitives sur une suite complète de benchmarks, avec des scores de 7.24 sur GEdit-EN, 3.80 sur ImgEdit-Full et 8.78 sur Complex-Edit, démontrant une meilleure adhérence aux instructions et une qualité perceptuelle supérieure tout en préservant l'identité. Ces scores dépassent nettement toutes les méthodes open source précédemment publiées et réduisent considérablement l'écart avec les modèles propriétaires leaders. Nous espérons que la publication complète de GPT-IMAGE-EDIT-1.5M pourra catalyser davantage de recherches ouvertes dans le domaine de l'édition d'images guidée par instructions.
English
Recent advancements in large multimodal models like GPT-4o have set a new standard for high-fidelity, instruction-guided image editing. However, the proprietary nature of these models and their training data creates a significant barrier for open-source research. To bridge this gap, we introduce GPT-IMAGE-EDIT-1.5M, a publicly available, large-scale image-editing corpus containing more than 1.5 million high-quality triplets (instruction, source image, edited image). We systematically construct this dataset by leveraging the versatile capabilities of GPT-4o to unify and refine three popular image-editing datasets: OmniEdit, HQ-Edit, and UltraEdit. Specifically, our methodology involves 1) regenerating output images to enhance visual quality and instruction alignment, and 2) selectively rewriting prompts to improve semantic clarity. To validate the efficacy of our dataset, we fine-tune advanced open-source models on GPT-IMAGE-EDIT-1.5M. The empirical results are exciting, e.g., the fine-tuned FluxKontext achieves highly competitive performance across a comprehensive suite of benchmarks, including 7.24 on GEdit-EN, 3.80 on ImgEdit-Full, and 8.78 on Complex-Edit, showing stronger instruction following and higher perceptual quality while maintaining identity. These scores markedly exceed all previously published open-source methods and substantially narrow the gap to leading proprietary models. We hope the full release of GPT-IMAGE-EDIT-1.5M can help to catalyze further open research in instruction-guided image editing.
PDF142July 29, 2025