UltraImage: Neubetrachtung der Resolutionsextrapolation in Bild-Diffusionstransformern
UltraImage: Rethinking Resolution Extrapolation in Image Diffusion Transformers
December 4, 2025
papers.authors: Min Zhao, Bokai Yan, Xue Yang, Hongzhou Zhu, Jintao Zhang, Shilong Liu, Chongxuan Li, Jun Zhu
cs.AI
papers.abstract
Aktuelle Bild-Diffusionstransformer erreichen eine hochwertige Generierung, haben jedoch Schwierigkeiten, Bilder über diese Skalen hinaus zu erzeugen, und leiden unter Inhaltswiederholungen und Qualitätseinbußen. In dieser Arbeit stellen wir UltraImage vor, ein prinzipienbasiertes Framework, das beide Probleme adressiert. Durch eine frequenzbasierte Analyse von Positions-Einbettungen identifizieren wir, dass Wiederholungen aus der Periodizität der dominierenden Frequenz resultieren, deren Periode mit der Trainingsauflösung übereinstimmt. Wir führen eine rekursive Korrektur der dominierenden Frequenz ein, um diese nach der Extrapolation auf eine einzelne Periode zu beschränken. Darüber hinaus stellen wir fest, dass Qualitätsverluste auf verwässerte Aufmerksamkeit zurückzuführen sind, und schlagen daher eine entropiegeführte adaptive Aufmerksamkeitsbündelung vor, die höhere Fokusfaktoren zuweist, um die lokale Aufmerksamkeit für feine Details zu schärfen, und niedrigere für globale Aufmerksamkeitsmuster, um die strukturelle Konsistenz zu bewahren. Experimente zeigen, dass UltraImage bei Qwen-Image und Flux (ca. 4K) in drei Generierungsszenarien durchweg besser abschneidet als bisherige Methoden, Wiederholungen reduziert und die visuelle Qualität verbessert. Darüber hinaus kann UltraImage ohne Niedrigauflösungs-Führung von einer Trainingsauflösung von 1328p aus Bilder bis zu 6K*6K generieren, was seine extreme Extrapolationsfähigkeit demonstriert. Die Projektseite ist verfügbar unter https://thu-ml.github.io/ultraimage.github.io/.
English
Recent image diffusion transformers achieve high-fidelity generation, but struggle to generate images beyond these scales, suffering from content repetition and quality degradation. In this work, we present UltraImage, a principled framework that addresses both issues. Through frequency-wise analysis of positional embeddings, we identify that repetition arises from the periodicity of the dominant frequency, whose period aligns with the training resolution. We introduce a recursive dominant frequency correction to constrain it within a single period after extrapolation. Furthermore, we find that quality degradation stems from diluted attention and thus propose entropy-guided adaptive attention concentration, which assigns higher focus factors to sharpen local attention for fine detail and lower ones to global attention patterns to preserve structural consistency. Experiments show that UltraImage consistently outperforms prior methods on Qwen-Image and Flux (around 4K) across three generation scenarios, reducing repetition and improving visual fidelity. Moreover, UltraImage can generate images up to 6K*6K without low-resolution guidance from a training resolution of 1328p, demonstrating its extreme extrapolation capability. Project page is available at https://thu-ml.github.io/ultraimage.github.io/{https://thu-ml.github.io/ultraimage.github.io/}.