ChatPaper.aiChatPaper

GPT-IMAGE-EDIT-1.5M: Un Dataset di Immagini su Scala Milionaria Generato da GPT

GPT-IMAGE-EDIT-1.5M: A Million-Scale, GPT-Generated Image Dataset

July 28, 2025
Autori: Yuhan Wang, Siwei Yang, Bingchen Zhao, Letian Zhang, Qing Liu, Yuyin Zhou, Cihang Xie
cs.AI

Abstract

I recenti progressi nei grandi modelli multimodali come GPT-4o hanno stabilito un nuovo standard per l'editing di immagini guidato da istruzioni ad alta fedeltà. Tuttavia, la natura proprietaria di questi modelli e dei loro dati di addestramento rappresenta un significativo ostacolo per la ricerca open-source. Per colmare questa lacuna, introduciamo GPT-IMAGE-EDIT-1.5M, un corpus di editing di immagini su larga scala e pubblicamente disponibile, contenente oltre 1,5 milioni di triplette di alta qualità (istruzione, immagine sorgente, immagine modificata). Costruiamo sistematicamente questo dataset sfruttando le capacità versatili di GPT-4o per unificare e perfezionare tre popolari dataset di editing di immagini: OmniEdit, HQ-Edit e UltraEdit. Nello specifico, la nostra metodologia prevede 1) la rigenerazione delle immagini di output per migliorare la qualità visiva e l'allineamento alle istruzioni, e 2) la riscrittura selettiva dei prompt per migliorare la chiarezza semantica. Per validare l'efficacia del nostro dataset, addestriamo modelli open-source avanzati su GPT-IMAGE-EDIT-1.5M. I risultati empirici sono entusiasmanti: ad esempio, il modello FluxKontext, dopo l'addestramento, raggiunge prestazioni altamente competitive su una vasta gamma di benchmark, tra cui 7.24 su GEdit-EN, 3.80 su ImgEdit-Full e 8.78 su Complex-Edit, dimostrando una migliore aderenza alle istruzioni e una qualità percettiva superiore, pur mantenendo l'identità. Questi punteggi superano nettamente tutti i metodi open-source precedentemente pubblicati e riducono significativamente il divario rispetto ai principali modelli proprietari. Speriamo che il rilascio completo di GPT-IMAGE-EDIT-1.5M possa contribuire a catalizzare ulteriori ricerche aperte nel campo dell'editing di immagini guidato da istruzioni.
English
Recent advancements in large multimodal models like GPT-4o have set a new standard for high-fidelity, instruction-guided image editing. However, the proprietary nature of these models and their training data creates a significant barrier for open-source research. To bridge this gap, we introduce GPT-IMAGE-EDIT-1.5M, a publicly available, large-scale image-editing corpus containing more than 1.5 million high-quality triplets (instruction, source image, edited image). We systematically construct this dataset by leveraging the versatile capabilities of GPT-4o to unify and refine three popular image-editing datasets: OmniEdit, HQ-Edit, and UltraEdit. Specifically, our methodology involves 1) regenerating output images to enhance visual quality and instruction alignment, and 2) selectively rewriting prompts to improve semantic clarity. To validate the efficacy of our dataset, we fine-tune advanced open-source models on GPT-IMAGE-EDIT-1.5M. The empirical results are exciting, e.g., the fine-tuned FluxKontext achieves highly competitive performance across a comprehensive suite of benchmarks, including 7.24 on GEdit-EN, 3.80 on ImgEdit-Full, and 8.78 on Complex-Edit, showing stronger instruction following and higher perceptual quality while maintaining identity. These scores markedly exceed all previously published open-source methods and substantially narrow the gap to leading proprietary models. We hope the full release of GPT-IMAGE-EDIT-1.5M can help to catalyze further open research in instruction-guided image editing.
PDF192July 29, 2025