ChatPaper.aiChatPaper

StableRep: Imagens Sintéticas de Modelos de Texto para Imagem como Fortes Aprendizes de Representação Visual

StableRep: Synthetic Images from Text-to-Image Models Make Strong Visual Representation Learners

June 1, 2023
Autores: Yonglong Tian, Lijie Fan, Phillip Isola, Huiwen Chang, Dilip Krishnan
cs.AI

Resumo

Investigamos o potencial de aprender representações visuais utilizando imagens sintéticas geradas por modelos de texto para imagem. Esta é uma questão natural diante do excelente desempenho desses modelos na geração de imagens de alta qualidade. Consideramos especificamente o Stable Diffusion, um dos principais modelos de texto para imagem de código aberto. Mostramos que (1) quando o modelo generativo é configurado com uma escala adequada de orientação sem classificador, métodos de auto-supervisão treinados em imagens sintéticas podem igualar ou superar o desempenho de suas contrapartes treinadas em imagens reais; (2) ao tratar as múltiplas imagens geradas a partir do mesmo prompt de texto como positivas umas para as outras, desenvolvemos um método de aprendizado contrastivo multi-positivo, que chamamos de StableRep. Com apenas imagens sintéticas, as representações aprendidas pelo StableRep superam o desempenho das representações aprendidas por SimCLR e CLIP utilizando o mesmo conjunto de prompts de texto e imagens reais correspondentes, em grandes conjuntos de dados. Quando adicionamos ainda mais supervisão de linguagem, o StableRep treinado com 20 milhões de imagens sintéticas alcança uma precisão melhor do que o CLIP treinado com 50 milhões de imagens reais.
English
We investigate the potential of learning visual representations using synthetic images generated by text-to-image models. This is a natural question in the light of the excellent performance of such models in generating high-quality images. We consider specifically the Stable Diffusion, one of the leading open source text-to-image models. We show that (1) when the generative model is configured with proper classifier-free guidance scale, training self-supervised methods on synthetic images can match or beat the real image counterpart; (2) by treating the multiple images generated from the same text prompt as positives for each other, we develop a multi-positive contrastive learning method, which we call StableRep. With solely synthetic images, the representations learned by StableRep surpass the performance of representations learned by SimCLR and CLIP using the same set of text prompts and corresponding real images, on large scale datasets. When we further add language supervision, StableRep trained with 20M synthetic images achieves better accuracy than CLIP trained with 50M real images.
PDF41February 8, 2026