ChatPaper.aiChatPaper

Technisch Rapport FireRed-Image-Edit-1.0

FireRed-Image-Edit-1.0 Techinical Report

February 12, 2026
Auteurs: Super Intelligence Team, Changhao Qiao, Chao Hui, Chen Li, Cunzheng Wang, Dejia Song, Jiale Zhang, Jing Li, Qiang Xiang, Runqi Wang, Shuang Sun, Wei Zhu, Xu Tang, Yao Hu, Yibo Chen, Yuhao Huang, Yuxuan Duan, Zhiyi Chen, Ziyuan Guo
cs.AI

Samenvatting

Wij presenteren FireRed-Image-Edit, een diffusion transformer voor instructiegebaseerde beeldbewerking die state-of-the-art prestaties bereikt door een systematische optimalisatie van datacuratie, trainingsmethodologie en evaluatieontwerp. Wij hebben een trainingscorpus van 1,6 miljard samples samengesteld, bestaande uit 900 miljoen tekst-naar-beeld en 700 miljoen beeldbewerkingsparen uit diverse bronnen. Na rigoureuze reiniging, stratificatie, automatische labeling en tweefasenfiltering behouden wij meer dan 100 miljoen hoogwaardige samples, in evenwicht tussen generatie en bewerking, wat een sterke semantische dekking en instructie-uitlijning garandeert. Onze meerfasen trainingspijplijn bouwt geleidelijk bewerkingscapaciteit op via voorafgaande training, supervised fine-tuning en reinforcement learning. Om de data-efficiëntie te verbeteren, introduceren wij een Multi-Condition Aware Bucket Sampler voor batching met variabele resolutie en Stochastic Instruction Alignment met dynamische promptherindexering. Om de optimalisatie te stabiliseren en de bestuurbaarheid te vergroten, stellen wij Asymmetrische Gradiëntoptimalisatie voor DPO voor, DiffusionNFT met layout-aware OCR-beloningen voor tekstbewerking, en een differentieerbaar Consistentieverlies voor identiteitsbehoud. Wij stellen verder REDEdit-Bench in, een uitgebreide benchmark die 15 bewerkingscategorieën omvat, waaronder nieuw geïntroduceerde taken voor beautification en low-level verbetering. Uitgebreide experimenten op REDEdit-Bench en openbare benchmarks (ImgEdit en GEdit) tonen competitieve of superieure prestaties aan ten opzichte van zowel open-source als propriëtaire systemen. Wij publiceren code, modellen en de benchmark suite om toekomstig onderzoek te ondersteunen.
English
We present FireRed-Image-Edit, a diffusion transformer for instruction-based image editing that achieves state-of-the-art performance through systematic optimization of data curation, training methodology, and evaluation design. We construct a 1.6B-sample training corpus, comprising 900M text-to-image and 700M image editing pairs from diverse sources. After rigorous cleaning, stratification, auto-labeling, and two-stage filtering, we retain over 100M high-quality samples balanced between generation and editing, ensuring strong semantic coverage and instruction alignment. Our multi-stage training pipeline progressively builds editing capability via pre-training, supervised fine-tuning, and reinforcement learning. To improve data efficiency, we introduce a Multi-Condition Aware Bucket Sampler for variable-resolution batching and Stochastic Instruction Alignment with dynamic prompt re-indexing. To stabilize optimization and enhance controllability, we propose Asymmetric Gradient Optimization for DPO, DiffusionNFT with layout-aware OCR rewards for text editing, and a differentiable Consistency Loss for identity preservation. We further establish REDEdit-Bench, a comprehensive benchmark spanning 15 editing categories, including newly introduced beautification and low-level enhancement tasks. Extensive experiments on REDEdit-Bench and public benchmarks (ImgEdit and GEdit) demonstrate competitive or superior performance against both open-source and proprietary systems. We release code, models, and the benchmark suite to support future research.
PDF31February 18, 2026