ChatPaper.aiChatPaper

Что необходимо для генерации текста в 360-градусные панорамы с использованием Stable Diffusion?

What Makes for Text to 360-degree Panorama Generation with Stable Diffusion?

May 28, 2025
Авторы: Jinhong Ni, Chang-Bin Zhang, Qiang Zhang, Jing Zhang
cs.AI

Аннотация

Недавний успех моделей диффузии для генерации изображений из текста, таких как Stable Diffusion, стимулировал исследования по их адаптации для создания 360-градусных панорам. Предыдущие работы продемонстрировали возможность использования традиционных методов низкоранговой адаптации на предварительно обученных моделях диффузии для генерации панорамных изображений. Однако значительный разрыв между перспективными и панорамными изображениями вызывает вопросы о механизмах, лежащих в основе этого эмпирического успеха. Мы выдвигаем гипотезу и исследуем, что обучаемые компоненты демонстрируют различные поведенческие особенности при тонкой настройке на панорамных данных, и такая адаптация скрывает некоторые внутренние механизмы, позволяющие использовать предварительные знания, заложенные в моделях диффузии. Наш анализ выявил следующее: 1) матрицы запросов и ключей в модулях внимания отвечают за общую информацию, которая может быть разделена между панорамным и перспективным доменами, и поэтому менее значимы для генерации панорам; 2) матрицы значений и выходных весов специализируются на адаптации предварительно полученных знаний к панорамному домену, играя более важную роль в процессе тонкой настройки для генерации панорам. Мы эмпирически подтверждаем эти выводы, представляя простую структуру под названием UniPano, целью которой является создание элегантного базиса для будущих исследований. UniPano не только превосходит существующие методы, но и значительно сокращает использование памяти и время обучения по сравнению с предыдущими подходами с двумя ветвями, что делает его масштабируемым для сквозной генерации панорам с более высоким разрешением. Код будет опубликован.
English
Recent prosperity of text-to-image diffusion models, e.g. Stable Diffusion, has stimulated research to adapt them to 360-degree panorama generation. Prior work has demonstrated the feasibility of using conventional low-rank adaptation techniques on pre-trained diffusion models to generate panoramic images. However, the substantial domain gap between perspective and panoramic images raises questions about the underlying mechanisms enabling this empirical success. We hypothesize and examine that the trainable counterparts exhibit distinct behaviors when fine-tuned on panoramic data, and such an adaptation conceals some intrinsic mechanism to leverage the prior knowledge within the pre-trained diffusion models. Our analysis reveals the following: 1) the query and key matrices in the attention modules are responsible for common information that can be shared between the panoramic and perspective domains, thus are less relevant to panorama generation; and 2) the value and output weight matrices specialize in adapting pre-trained knowledge to the panoramic domain, playing a more critical role during fine-tuning for panorama generation. We empirically verify these insights by introducing a simple framework called UniPano, with the objective of establishing an elegant baseline for future research. UniPano not only outperforms existing methods but also significantly reduces memory usage and training time compared to prior dual-branch approaches, making it scalable for end-to-end panorama generation with higher resolution. The code will be released.

Summary

AI-Generated Summary

PDF152May 29, 2025