Технический отчет FireRed-Image-Edit-1.0
FireRed-Image-Edit-1.0 Techinical Report
February 12, 2026
Авторы: Super Intelligence Team, Changhao Qiao, Chao Hui, Chen Li, Cunzheng Wang, Dejia Song, Jiale Zhang, Jing Li, Qiang Xiang, Runqi Wang, Shuang Sun, Wei Zhu, Xu Tang, Yao Hu, Yibo Chen, Yuhao Huang, Yuxuan Duan, Zhiyi Chen, Ziyuan Guo
cs.AI
Аннотация
Мы представляем FireRed-Image-Edit — диффузионный трансформер для редактирования изображений на основе инструкций, который демонстрирует наилучшие результаты благодаря системной оптимизации курирования данных, методологии обучения и дизайна оценки. Мы создали обучающий корпус объемом 1,6 млрд примеров, включающий 900 млн пар «текст-изображение» и 700 млн пар для редактирования изображений из различных источников. После тщательной очистки, стратификации, автоматической разметки и двухэтапной фильтрации мы сохранили более 100 млн высококачественных примеров, сбалансированных между генерацией и редактированием, что обеспечивает широкое семантическое покрытие и соответствие инструкциям. Наш многоэтапный конвейер обучения поэтапно формирует способность к редактированию через предварительное обучение, контролируемую тонкую настройку и обучение с подкреплением. Для повышения эффективности данных мы внедряем семплер с учетом множественных условий для пакетной обработки изображений с переменным разрешением и стохастическое выравнивание инструкций с динамической переиндексацией промптов. Для стабилизации оптимизации и повышения управляемости мы предлагаем асимметричную градиентную оптимизацию для DPO, DiffusionNFT с OCR-вознаграждениями, учитывающими компоновку для редактирования текста, и дифференцируемую функцию потерь на сохранение идентичности. Кроме того, мы создали REDEdit-Bench — комплексный бенчмарк, охватывающий 15 категорий редактирования, включая новые задачи по улучшению внешнего вида и низкоуровневой обработке. Многочисленные эксперименты на REDEdit-Bench и открытых бенчмарках (ImgEdit и GEdit) демонстрируют конкурентоспособную или превосходящую производительность по сравнению с открытыми и проприетарными системами. Мы публикуем код, модели и набор бенчмарков для поддержки будущих исследований.
English
We present FireRed-Image-Edit, a diffusion transformer for instruction-based image editing that achieves state-of-the-art performance through systematic optimization of data curation, training methodology, and evaluation design. We construct a 1.6B-sample training corpus, comprising 900M text-to-image and 700M image editing pairs from diverse sources. After rigorous cleaning, stratification, auto-labeling, and two-stage filtering, we retain over 100M high-quality samples balanced between generation and editing, ensuring strong semantic coverage and instruction alignment. Our multi-stage training pipeline progressively builds editing capability via pre-training, supervised fine-tuning, and reinforcement learning. To improve data efficiency, we introduce a Multi-Condition Aware Bucket Sampler for variable-resolution batching and Stochastic Instruction Alignment with dynamic prompt re-indexing. To stabilize optimization and enhance controllability, we propose Asymmetric Gradient Optimization for DPO, DiffusionNFT with layout-aware OCR rewards for text editing, and a differentiable Consistency Loss for identity preservation. We further establish REDEdit-Bench, a comprehensive benchmark spanning 15 editing categories, including newly introduced beautification and low-level enhancement tasks. Extensive experiments on REDEdit-Bench and public benchmarks (ImgEdit and GEdit) demonstrate competitive or superior performance against both open-source and proprietary systems. We release code, models, and the benchmark suite to support future research.