GPT-IMAGE-EDIT-1.5M: Миллионный набор изображений, сгенерированных GPT
GPT-IMAGE-EDIT-1.5M: A Million-Scale, GPT-Generated Image Dataset
July 28, 2025
Авторы: Yuhan Wang, Siwei Yang, Bingchen Zhao, Letian Zhang, Qing Liu, Yuyin Zhou, Cihang Xie
cs.AI
Аннотация
Последние достижения в области крупных мультимодальных моделей, таких как GPT-4o, установили новый стандарт для высококачественного редактирования изображений на основе инструкций. Однако проприетарный характер этих моделей и их обучающих данных создает значительные барьеры для открытых исследований. Чтобы преодолеть этот разрыв, мы представляем GPT-IMAGE-EDIT-1.5M — общедоступный крупномасштабный корпус для редактирования изображений, содержащий более 1,5 миллионов высококачественных триплетов (инструкция, исходное изображение, отредактированное изображение). Мы систематически создаем этот набор данных, используя универсальные возможности GPT-4o для объединения и улучшения трех популярных наборов данных для редактирования изображений: OmniEdit, HQ-Edit и UltraEdit. В частности, наша методология включает 1) повторную генерацию выходных изображений для повышения визуального качества и соответствия инструкциям и 2) выборочное переписывание промптов для улучшения семантической ясности. Чтобы подтвердить эффективность нашего набора данных, мы дообучаем передовые открытые модели на GPT-IMAGE-EDIT-1.5M. Эмпирические результаты впечатляют: например, дообученная модель FluxKontext демонстрирует высококонкурентные результаты на комплексном наборе тестов, включая 7,24 на GEdit-EN, 3,80 на ImgEdit-Full и 8,78 на Complex-Edit, показывая лучшее следование инструкциям и более высокое воспринимаемое качество при сохранении идентичности. Эти показатели значительно превосходят все ранее опубликованные открытые методы и существенно сокращают разрыв с ведущими проприетарными моделями. Мы надеемся, что полный выпуск GPT-IMAGE-EDIT-1.5M поможет стимулировать дальнейшие открытые исследования в области редактирования изображений на основе инструкций.
English
Recent advancements in large multimodal models like GPT-4o have set a new
standard for high-fidelity, instruction-guided image editing. However, the
proprietary nature of these models and their training data creates a
significant barrier for open-source research. To bridge this gap, we introduce
GPT-IMAGE-EDIT-1.5M, a publicly available, large-scale image-editing corpus
containing more than 1.5 million high-quality triplets (instruction, source
image, edited image). We systematically construct this dataset by leveraging
the versatile capabilities of GPT-4o to unify and refine three popular
image-editing datasets: OmniEdit, HQ-Edit, and UltraEdit. Specifically, our
methodology involves 1) regenerating output images to enhance visual quality
and instruction alignment, and 2) selectively rewriting prompts to improve
semantic clarity. To validate the efficacy of our dataset, we fine-tune
advanced open-source models on GPT-IMAGE-EDIT-1.5M. The empirical results are
exciting, e.g., the fine-tuned FluxKontext achieves highly competitive
performance across a comprehensive suite of benchmarks, including 7.24 on
GEdit-EN, 3.80 on ImgEdit-Full, and 8.78 on Complex-Edit, showing stronger
instruction following and higher perceptual quality while maintaining identity.
These scores markedly exceed all previously published open-source methods and
substantially narrow the gap to leading proprietary models. We hope the full
release of GPT-IMAGE-EDIT-1.5M can help to catalyze further open research in
instruction-guided image editing.