ChatPaper.aiChatPaper

Tutto al suo posto: Valutare l'intelligenza spaziale dei modelli di testo-immagine

Everything in Its Place: Benchmarking Spatial Intelligence of Text-to-Image Models

January 28, 2026
Autori: Zengbin Wang, Xuecai Hu, Yong Wang, Feng Xiong, Man Zhang, Xiangxiang Chu
cs.AI

Abstract

I modelli text-to-image (T2I) hanno ottenuto un notevole successo nella generazione di immagini ad alta fedeltà, ma spesso falliscono nella gestione di relazioni spaziali complesse, ad esempio percezione, ragionamento o interazione spaziale. Questi aspetti critici sono ampiamente trascurati dagli attuali benchmark a causa del loro design di prompt breve o a basso contenuto informativo. In questo articolo, introduciamo SpatialGenEval, un nuovo benchmark progettato per valutare sistematicamente l'intelligenza spaziale dei modelli T2I, coprendo due aspetti chiave: (1) SpatialGenEval comprende 1.230 prompt lunghi e ricchi di informazioni attraverso 25 scene del mondo reale. Ogni prompt integra 10 sotto-dominii spaziali e i corrispondenti 10 gruppi di domande a scelta multipla e risposte, che spaziano dalla posizione e disposizione degli oggetti all'occlusione e alla causalità. La nostra valutazione estesa di 21 modelli all'avanguardia rivela che il ragionamento spaziale di ordine superiore rimane un collo di bottiglia primario. (2) Per dimostrare che l'utilità del nostro design ricco di informazioni va oltre la semplice valutazione, costruiamo anche il dataset SpatialT2I. Esso contiene 15.400 coppie testo-immagine con prompt riscritti per garantire la coerenza dell'immagine preservando al contempo la densità informativa. I risultati del fine-tuning su modelli di base attuali (ovvero Stable Diffusion-XL, Uniworld-V1, OmniGen2) producono guadagni di prestazioni consistenti (+4,2%, +5,7%, +4,4%) ed effetti più realistici nelle relazioni spaziali, evidenziando un paradigma data-centrico per raggiungere l'intelligenza spaziale nei modelli T2I.
English
Text-to-image (T2I) models have achieved remarkable success in generating high-fidelity images, but they often fail in handling complex spatial relationships, e.g., spatial perception, reasoning, or interaction. These critical aspects are largely overlooked by current benchmarks due to their short or information-sparse prompt design. In this paper, we introduce SpatialGenEval, a new benchmark designed to systematically evaluate the spatial intelligence of T2I models, covering two key aspects: (1) SpatialGenEval involves 1,230 long, information-dense prompts across 25 real-world scenes. Each prompt integrates 10 spatial sub-domains and corresponding 10 multi-choice question-answer pairs, ranging from object position and layout to occlusion and causality. Our extensive evaluation of 21 state-of-the-art models reveals that higher-order spatial reasoning remains a primary bottleneck. (2) To demonstrate that the utility of our information-dense design goes beyond simple evaluation, we also construct the SpatialT2I dataset. It contains 15,400 text-image pairs with rewritten prompts to ensure image consistency while preserving information density. Fine-tuned results on current foundation models (i.e., Stable Diffusion-XL, Uniworld-V1, OmniGen2) yield consistent performance gains (+4.2%, +5.7%, +4.4%) and more realistic effects in spatial relations, highlighting a data-centric paradigm to achieve spatial intelligence in T2I models.
PDF1103February 16, 2026