ChatPaper.aiChatPaper

Technischer Bericht zu FireRed-Image-Edit-1.0

FireRed-Image-Edit-1.0 Techinical Report

February 12, 2026
papers.authors: Super Intelligence Team, Changhao Qiao, Chao Hui, Chen Li, Cunzheng Wang, Dejia Song, Jiale Zhang, Jing Li, Qiang Xiang, Runqi Wang, Shuang Sun, Wei Zhu, Xu Tang, Yao Hu, Yibo Chen, Yuhao Huang, Yuxuan Duan, Zhiyi Chen, Ziyuan Guo
cs.AI

papers.abstract

Wir stellen FireRed-Image-Edit vor, einen Diffusion-Transformer für instruktionsbasiertes Bildbearbeiten, der durch systematische Optimierung von Datenkuratierung, Trainingsmethodik und Evaluierungsdesign state-of-the-art Leistung erzielt. Wir erstellen einen Trainingskorpus mit 1,6 Milliarden Beispielen, bestehend aus 900 Millionen Text-zu-Bild- und 700 Millionen Bildbearbeitungspaaren aus verschiedenen Quellen. Nach rigoroser Bereinigung, Schichtung, automatischer Beschriftung und zweistufiger Filterung behalten wir über 100 Millionen hochwertige Beispiele bei, die zwischen Generierung und Bearbeitung ausbalanciert sind und eine starke semantische Abdeckung sowie Instruktionsausrichtung gewährleisten. Unsere mehrstufige Trainingspipeline baut Bearbeitungsfähigkeiten schrittweise durch Pre-Training, überwachtes Feinabstimmen und Verstärkungslernen auf. Um die Dateneffizienz zu verbessern, führen wir einen Multi-Condition Aware Bucket Sampler für Batch-Verarbeitung mit variabler Auflösung sowie Stochastic Instruction Alignment mit dynamischer Prompt-Neuindizierung ein. Zur Stabilisierung der Optimierung und Verbesserung der Steuerbarkeit schlagen wir Asymmetric Gradient Optimization für DPO, DiffusionNFT mit layoutbewussten OCR-Belohnungen für Textbearbeitung und einen differenzierbaren Consistency Loss zur Identitätserhaltung vor. Des Weiteren etablieren wir REDEdit-Bench, einen umfassenden Benchmark, der 15 Bearbeitungskategorien abdeckt, einschließlich neu eingeführter Verschönerungs- und Low-Level-Verbesserungsaufgaben. Umfangreiche Experimente auf REDEdit-Bench und öffentlichen Benchmarks (ImgEdit und GEdit) demonstrieren wettbewerbsfähige oder überlegene Leistung im Vergleich zu Open-Source- und proprietären Systemen. Wir veröffentlichen Code, Modelle und die Benchmark-Suite, um zukünftige Forschung zu unterstützen.
English
We present FireRed-Image-Edit, a diffusion transformer for instruction-based image editing that achieves state-of-the-art performance through systematic optimization of data curation, training methodology, and evaluation design. We construct a 1.6B-sample training corpus, comprising 900M text-to-image and 700M image editing pairs from diverse sources. After rigorous cleaning, stratification, auto-labeling, and two-stage filtering, we retain over 100M high-quality samples balanced between generation and editing, ensuring strong semantic coverage and instruction alignment. Our multi-stage training pipeline progressively builds editing capability via pre-training, supervised fine-tuning, and reinforcement learning. To improve data efficiency, we introduce a Multi-Condition Aware Bucket Sampler for variable-resolution batching and Stochastic Instruction Alignment with dynamic prompt re-indexing. To stabilize optimization and enhance controllability, we propose Asymmetric Gradient Optimization for DPO, DiffusionNFT with layout-aware OCR rewards for text editing, and a differentiable Consistency Loss for identity preservation. We further establish REDEdit-Bench, a comprehensive benchmark spanning 15 editing categories, including newly introduced beautification and low-level enhancement tasks. Extensive experiments on REDEdit-Bench and public benchmarks (ImgEdit and GEdit) demonstrate competitive or superior performance against both open-source and proprietary systems. We release code, models, and the benchmark suite to support future research.
PDF31February 18, 2026