GPT-IMAGE-EDIT-1.5M: 100万規模のGPT生成画像データセット
GPT-IMAGE-EDIT-1.5M: A Million-Scale, GPT-Generated Image Dataset
July 28, 2025
著者: Yuhan Wang, Siwei Yang, Bingchen Zhao, Letian Zhang, Qing Liu, Yuyin Zhou, Cihang Xie
cs.AI
要旨
GPT-4oのような大規模マルチモーダルモデルの最近の進展は、高忠実度で指示に基づく画像編集の新たな基準を確立しました。しかし、これらのモデルとその学習データのプロプライエタリな性質は、オープンソース研究にとって大きな障壁となっています。このギャップを埋めるため、我々はGPT-IMAGE-EDIT-1.5Mを紹介します。これは、150万以上の高品質なトリプレット(指示、元画像、編集画像)を含む公開可能な大規模画像編集コーパスです。我々は、GPT-4oの多機能な能力を活用して、OmniEdit、HQ-Edit、UltraEditという3つの人気画像編集データセットを統合・精緻化することで、このデータセットを体系的に構築しました。具体的には、1) 視覚品質と指示の整合性を向上させるために出力画像を再生成し、2) 意味的明確さを改善するためにプロンプトを選択的に書き換えるという方法論を採用しました。我々のデータセットの有効性を検証するため、GPT-IMAGE-EDIT-1.5Mで先進的なオープンソースモデルをファインチューニングしました。その結果は非常に有望で、例えば、ファインチューニングされたFluxKontextは、GEdit-ENで7.24、ImgEdit-Fullで3.80、Complex-Editで8.78という包括的なベンチマークスイートで高い競争力を示し、指示の遵守と知覚品質の向上を維持しながら、アイデンティティを保持しました。これらのスコアは、これまでに発表されたすべてのオープンソース手法を大幅に上回り、主要なプロプライエタリモデルとのギャップを大幅に縮めました。我々は、GPT-IMAGE-EDIT-1.5Mの完全公開が、指示に基づく画像編集のさらなるオープン研究を促進することを期待しています。
English
Recent advancements in large multimodal models like GPT-4o have set a new
standard for high-fidelity, instruction-guided image editing. However, the
proprietary nature of these models and their training data creates a
significant barrier for open-source research. To bridge this gap, we introduce
GPT-IMAGE-EDIT-1.5M, a publicly available, large-scale image-editing corpus
containing more than 1.5 million high-quality triplets (instruction, source
image, edited image). We systematically construct this dataset by leveraging
the versatile capabilities of GPT-4o to unify and refine three popular
image-editing datasets: OmniEdit, HQ-Edit, and UltraEdit. Specifically, our
methodology involves 1) regenerating output images to enhance visual quality
and instruction alignment, and 2) selectively rewriting prompts to improve
semantic clarity. To validate the efficacy of our dataset, we fine-tune
advanced open-source models on GPT-IMAGE-EDIT-1.5M. The empirical results are
exciting, e.g., the fine-tuned FluxKontext achieves highly competitive
performance across a comprehensive suite of benchmarks, including 7.24 on
GEdit-EN, 3.80 on ImgEdit-Full, and 8.78 on Complex-Edit, showing stronger
instruction following and higher perceptual quality while maintaining identity.
These scores markedly exceed all previously published open-source methods and
substantially narrow the gap to leading proprietary models. We hope the full
release of GPT-IMAGE-EDIT-1.5M can help to catalyze further open research in
instruction-guided image editing.