ChatPaper.aiChatPaper

Skalierung von Bild-Tokenizer mit gruppierten sphärischen Quantisierungen.

Scaling Image Tokenizers with Grouped Spherical Quantization

December 3, 2024
Autoren: Jiangtao Wang, Zhen Qin, Yifan Zhang, Vincent Tao Hu, Björn Ommer, Rania Briq, Stefan Kesselheim
cs.AI

Zusammenfassung

Vision-Tokenizer haben aufgrund ihrer Skalierbarkeit und Kompaktheit viel Aufmerksamkeit erregt; frühere Arbeiten basieren auf altmodischen GAN-basierten Hyperparametern, voreingenommenen Vergleichen und einem Mangel an umfassender Analyse des Skalierungsverhaltens. Um diese Probleme anzugehen, führen wir Grouped Spherical Quantization (GSQ) ein, das sphärische Codebuchinitialisierung und Lookup-Regularisierung bietet, um das Codebuchlatent auf einer sphärischen Oberfläche zu beschränken. Unsere empirische Analyse von Bild-Tokenizer-Trainingsstrategien zeigt, dass GSQ-GAN eine überlegene Rekonstruktionsqualität im Vergleich zu State-of-the-Art-Methoden mit weniger Trainingsiterationen erreicht und somit eine solide Grundlage für Skalierungsstudien bietet. Aufbauend darauf untersuchen wir systematisch das Skalierungsverhalten von GSQ, insbesondere in Bezug auf die latente Dimensionalität, die Codebuchgröße und die Kompressionsraten sowie deren Auswirkungen auf die Modellleistung. Unsere Ergebnisse zeigen unterschiedliche Verhaltensweisen bei hohen und niedrigen räumlichen Kompressionsniveaus und betonen die Herausforderungen bei der Darstellung hochdimensionaler latenter Räume. Wir zeigen, dass GSQ hochdimensionale Latente in kompakte, niedrigdimensionale Räume umstrukturieren kann, was eine effiziente Skalierung mit verbesserter Qualität ermöglicht. Als Ergebnis erreicht GSQ-GAN eine 16-fache Down-Sampling mit einem Rekonstruktions-FID (rFID) von 0,50.
English
Vision tokenizers have gained a lot of attraction due to their scalability and compactness; previous works depend on old-school GAN-based hyperparameters, biased comparisons, and a lack of comprehensive analysis of the scaling behaviours. To tackle those issues, we introduce Grouped Spherical Quantization (GSQ), featuring spherical codebook initialization and lookup regularization to constrain codebook latent to a spherical surface. Our empirical analysis of image tokenizer training strategies demonstrates that GSQ-GAN achieves superior reconstruction quality over state-of-the-art methods with fewer training iterations, providing a solid foundation for scaling studies. Building on this, we systematically examine the scaling behaviours of GSQ, specifically in latent dimensionality, codebook size, and compression ratios, and their impact on model performance. Our findings reveal distinct behaviours at high and low spatial compression levels, underscoring challenges in representing high-dimensional latent spaces. We show that GSQ can restructure high-dimensional latent into compact, low-dimensional spaces, thus enabling efficient scaling with improved quality. As a result, GSQ-GAN achieves a 16x down-sampling with a reconstruction FID (rFID) of 0.50.

Summary

AI-Generated Summary

PDF102December 4, 2024