BBQ-to-Image: Controllo Numerico delle Bounding Box e del Colore nei Modelli di Text-to-Image su Larga Scala
BBQ-to-Image: Numeric Bounding Box and Qolor Control in Large-Scale Text-to-Image Models
February 24, 2026
Autori: Eliran Kachlon, Alexander Visheratin, Nimrod Sarid, Tal Hacham, Eyal Gutflaish, Saar Huberman, Hezi Zisman, David Ruppin, Ron Mokady
cs.AI
Abstract
I modelli text-to-image hanno fatto rapidi progressi in termini di realismo e controllabilità, con approcci recenti che sfruttano didascalie lunghe e dettagliate per supportare una generazione di grana fine. Tuttavia, rimane un gap parametrico fondamentale: i modelli esistenti si basano su un linguaggio descrittivo, mentre i flussi di lavoro professionali richiedono un controllo numerico preciso sulla posizione, le dimensioni e il colore degli oggetti. In questo lavoro, introduciamo BBQ, un modello text-to-image su larga scala che si condiziona direttamente su bounding box numeriche e triplette RGB all'interno di un framework unificato di testo strutturato. Otteniamo un controllo spaziale e cromatico preciso addestrando il modello su didascalie arricchite con annotazioni parametriche, senza modifiche architetturali o ottimizzazioni al momento dell'inferenza. Ciò consente anche interfacce utente intuitive come il trascinamento degli oggetti e i selettori colore, sostituendo l'ambigua promptistica iterativa con controlli precisi e familiari. In valutazioni complete, BBQ raggiunge un forte allineamento ai bounding box e migliora la fedeltà del colore RGB rispetto ai baseline state-of-the-art. Più in generale, i nostri risultati supportano un nuovo paradigma in cui l'intento dell'utente viene tradotto in un linguaggio strutturato intermedio, consumato da un transformer di tipo flow-based che agisce come renderer e accoglie naturalmente parametri numerici.
English
Text-to-image models have rapidly advanced in realism and controllability, with recent approaches leveraging long, detailed captions to support fine-grained generation. However, a fundamental parametric gap remains: existing models rely on descriptive language, whereas professional workflows require precise numeric control over object location, size, and color. In this work, we introduce BBQ, a large-scale text-to-image model that directly conditions on numeric bounding boxes and RGB triplets within a unified structured-text framework. We obtain precise spatial and chromatic control by training on captions enriched with parametric annotations, without architectural modifications or inference-time optimization. This also enables intuitive user interfaces such as object dragging and color pickers, replacing ambiguous iterative prompting with precise, familiar controls. Across comprehensive evaluations, BBQ achieves strong box alignment and improves RGB color fidelity over state-of-the-art baselines. More broadly, our results support a new paradigm in which user intent is translated into an intermediate structured language, consumed by a flow-based transformer acting as a renderer and naturally accommodating numeric parameters.