ChatPaper.aiChatPaper

Всему своё место: оценка пространственного интеллекта моделей «текст-изображение»

Everything in Its Place: Benchmarking Spatial Intelligence of Text-to-Image Models

January 28, 2026
Авторы: Zengbin Wang, Xuecai Hu, Yong Wang, Feng Xiong, Man Zhang, Xiangxiang Chu
cs.AI

Аннотация

Модели преобразования текста в изображение (T2I) достигли значительных успехов в генерации изображений с высокой точностью, однако часто не справляются с обработкой сложных пространственных отношений, таких как пространственное восприятие, логические рассуждения или взаимодействие. Эти важнейшие аспекты в значительной степени игнорируются современными системами оценки из-за использования коротких или информационно бедных промптов. В данной статье мы представляем SpatialGenEval — новую систему оценки, разработанную для систематического тестирования пространственного интеллекта моделей T2I, охватывающую два ключевых аспекта: (1) SpatialGenEval включает 1230 длинных, информационно насыщенных промптов, охватывающих 25 реальных сцен. Каждый промпт интегрирует 10 пространственных поддоменов и соответствующих 10 пар вопрос-ответ с множественным выбором, от позиции и расположения объектов до окклюзии и причинно-следственных связей. Наше масштабное тестирование 21 передовой модели показывает, что пространственные рассуждения высшего порядка остаются основным узким местом. (2) Чтобы продемонстрировать, что полезность нашего подхода с информационной насыщенностью выходит за рамки простой оценки, мы также создали набор данных SpatialT2I. Он содержит 15 400 пар текст-изображение с переработанными промптами для обеспечения согласованности изображений при сохранении информационной плотности. Результаты дообучения современных базовых моделей (таких как Stable Diffusion-XL, Uniworld-V1, OmniGen2) демонстрируют стабильное улучшение производительности (+4,2%, +5,7%, +4,4%) и более реалистичное отображение пространственных отношений, что подчеркивает потенциал центрированного на данных подхода для достижения пространственного интеллекта в моделях T2I.
English
Text-to-image (T2I) models have achieved remarkable success in generating high-fidelity images, but they often fail in handling complex spatial relationships, e.g., spatial perception, reasoning, or interaction. These critical aspects are largely overlooked by current benchmarks due to their short or information-sparse prompt design. In this paper, we introduce SpatialGenEval, a new benchmark designed to systematically evaluate the spatial intelligence of T2I models, covering two key aspects: (1) SpatialGenEval involves 1,230 long, information-dense prompts across 25 real-world scenes. Each prompt integrates 10 spatial sub-domains and corresponding 10 multi-choice question-answer pairs, ranging from object position and layout to occlusion and causality. Our extensive evaluation of 21 state-of-the-art models reveals that higher-order spatial reasoning remains a primary bottleneck. (2) To demonstrate that the utility of our information-dense design goes beyond simple evaluation, we also construct the SpatialT2I dataset. It contains 15,400 text-image pairs with rewritten prompts to ensure image consistency while preserving information density. Fine-tuned results on current foundation models (i.e., Stable Diffusion-XL, Uniworld-V1, OmniGen2) yield consistent performance gains (+4.2%, +5.7%, +4.4%) and more realistic effects in spatial relations, highlighting a data-centric paradigm to achieve spatial intelligence in T2I models.
PDF993January 31, 2026