Analyse de SDXL Turbo : Interprétation des modèles texte-image avec des autoencodeurs éparsUnpacking SDXL Turbo: Interpreting Text-to-Image Models with Sparse
Autoencoders
Les autoencodeurs parcimonieux (SAEs) sont devenus un ingrédient essentiel dans l'ingénierie inverse des grands modèles de langage (LLMs). Pour les LLMs, ils ont été démontrés pour décomposer des représentations intermédiaires souvent non interprétables directement en sommes parcimonieuses de caractéristiques interprétables, facilitant un meilleur contrôle et une analyse ultérieure. Cependant, des analyses et approches similaires ont fait défaut pour les modèles texte-image. Nous avons étudié la possibilité d'utiliser des SAEs pour apprendre des caractéristiques interprétables pour des modèles de diffusion texte-image à quelques étapes, tels que SDXL Turbo. À cette fin, nous entraînons des SAEs sur les mises à jour effectuées par les blocs transformateurs au sein du U-net de débruitage de SDXL Turbo. Nous constatons que leurs caractéristiques apprises sont interprétables, influencent de manière causale le processus de génération et révèlent une spécialisation parmi les blocs. En particulier, nous identifions un bloc qui traite principalement de la composition d'image, un autre responsable principalement de l'ajout de détails locaux, et un autre pour la couleur, l'illumination et le style. Par conséquent, notre travail est une première étape importante vers une meilleure compréhension des aspects internes des modèles génératifs texte-image tels que SDXL Turbo et met en valeur le potentiel des caractéristiques apprises par les SAEs pour le domaine visuel. Le code est disponible sur https://github.com/surkovv/sdxl-unbox