適材適所:テキストから画像生成モデルの空間知能ベンチマーク
Everything in Its Place: Benchmarking Spatial Intelligence of Text-to-Image Models
January 28, 2026
著者: Zengbin Wang, Xuecai Hu, Yong Wang, Feng Xiong, Man Zhang, Xiangxiang Chu
cs.AI
要旨
テキストから画像への生成(T2I)モデルは、高精細な画像生成において顕著な成功を収めているが、空間的知覚・推論・相互作用などの複雑な空間関係の処理では未だ課題を残している。これらの重要な側面は、既存のベンチマークが短いあるいは情報密度の低いプロンプト設計に依存しているため、十分に評価されていない。本論文では、T2Iモデルの空間的知能を体系的に評価する新しいベンチマーク「SpatialGenEval」を提案する。このベンチマークは以下の2つの核心的側面をカバーする。(1)SpatialGenEvalは、25の実世界シーンにわたる1,230の長文で情報密度の高いプロンプトを包含する。各プロンプトは10の空間的サブドメインと対応する10の多肢選択式質問応答ペアを統合し、物体の位置やレイアウトからオクルージョンや因果関係まで多岐にわたる。21の最先端モデルを用いた大規模評価により、高次空間推論が主要なボトルネックであることが明らかとなった。(2)情報密度の高い設計が単純な評価を超えた有用性を持つことを示すため、SpatialT2Iデータセットを構築した。このデータセットは15,400のテキスト-画像ペアを含み、情報密度を保ちながら画像一貫性を確保するためにプロンプトを再構築している。基盤モデル(Stable Diffusion-XL、Uniworld-V1、OmniGen2)でのファインチューニング結果は、一貫した性能向上(+4.2%、+5.7%、+4.4%)と空間関係におけるより現実的な効果をもたらし、T2Iモデルにおける空間的知能達成へのデータ中心パラダイムの有効性を実証している。
English
Text-to-image (T2I) models have achieved remarkable success in generating high-fidelity images, but they often fail in handling complex spatial relationships, e.g., spatial perception, reasoning, or interaction. These critical aspects are largely overlooked by current benchmarks due to their short or information-sparse prompt design. In this paper, we introduce SpatialGenEval, a new benchmark designed to systematically evaluate the spatial intelligence of T2I models, covering two key aspects: (1) SpatialGenEval involves 1,230 long, information-dense prompts across 25 real-world scenes. Each prompt integrates 10 spatial sub-domains and corresponding 10 multi-choice question-answer pairs, ranging from object position and layout to occlusion and causality. Our extensive evaluation of 21 state-of-the-art models reveals that higher-order spatial reasoning remains a primary bottleneck. (2) To demonstrate that the utility of our information-dense design goes beyond simple evaluation, we also construct the SpatialT2I dataset. It contains 15,400 text-image pairs with rewritten prompts to ensure image consistency while preserving information density. Fine-tuned results on current foundation models (i.e., Stable Diffusion-XL, Uniworld-V1, OmniGen2) yield consistent performance gains (+4.2%, +5.7%, +4.4%) and more realistic effects in spatial relations, highlighting a data-centric paradigm to achieve spatial intelligence in T2I models.