Scone: Unindo Composição e Distinção na Geração de Imagens Orientada a Assuntos através de Modelagem Unificada de Compreensão-Geração
Scone: Bridging Composition and Distinction in Subject-Driven Image Generation via Unified Understanding-Generation Modeling
December 14, 2025
Autores: Yuran Wang, Bohan Zeng, Chengzhuo Tong, Wenxuan Liu, Yang Shi, Xiaochen Ma, Hao Liang, Yuanxing Zhang, Wentao Zhang
cs.AI
Resumo
A geração de imagens orientada por objetos evoluiu da composição de objeto único para múltiplos objetos, mas negligenciou a distinção – a capacidade de identificar e gerar o objeto correto quando as entradas contêm múltiplos candidatos. Esta limitação restringe a eficácia em ambientes visuais complexos e realistas. Propomos o Scone, um método unificado de compreensão-geração que integra composição e distinção. O Scone permite que o especialista em compreensão atue como uma ponte semântica, transmitindo informações semânticas e orientando o especialista em geração a preservar a identidade do objeto enquanto minimiza interferências. Um esquema de treinamento em duas fases primeiro aprende a composição, depois aprimora a distinção através de alinhamento semântico e mascaramento baseado em atenção. Também introduzimos o SconeEval, um benchmark para avaliar composição e distinção em diversos cenários. Experimentos demonstram que o Scone supera os modelos de código aberto existentes em tarefas de composição e distinção em dois benchmarks. Nosso modelo, benchmark e dados de treinamento estão disponíveis em: https://github.com/Ryann-Ran/Scone.
English
Subject-driven image generation has advanced from single- to multi-subject composition, while neglecting distinction, the ability to identify and generate the correct subject when inputs contain multiple candidates. This limitation restricts effectiveness in complex, realistic visual settings. We propose Scone, a unified understanding-generation method that integrates composition and distinction. Scone enables the understanding expert to act as a semantic bridge, conveying semantic information and guiding the generation expert to preserve subject identity while minimizing interference. A two-stage training scheme first learns composition, then enhances distinction through semantic alignment and attention-based masking. We also introduce SconeEval, a benchmark for evaluating both composition and distinction across diverse scenarios. Experiments demonstrate that Scone outperforms existing open-source models in composition and distinction tasks on two benchmarks. Our model, benchmark, and training data are available at: https://github.com/Ryann-Ran/Scone.