ChatPaper.aiChatPaper

EdgeFusion: Geração de Texto para Imagem em Dispositivos Locais

EdgeFusion: On-Device Text-to-Image Generation

April 18, 2024
Autores: Thibault Castells, Hyoung-Kyu Song, Tairen Piao, Shinkook Choi, Bo-Kyeong Kim, Hanyoung Yim, Changgwun Lee, Jae Gon Kim, Tae-Ho Kim
cs.AI

Resumo

A intensa carga computacional do Stable Diffusion (SD) para geração de imagens a partir de texto representa um obstáculo significativo para sua aplicação prática. Para enfrentar esse desafio, pesquisas recentes concentram-se em métodos para reduzir etapas de amostragem, como o Latent Consistency Model (LCM), e na utilização de otimizações arquitetônicas, incluindo poda e destilação de conhecimento. Diferentemente das abordagens existentes, iniciamos de forma única com uma variante compacta do SD, o BK-SDM. Observamos que a aplicação direta do LCM ao BK-SDM com conjuntos de dados rastreados comumente utilizados produz resultados insatisfatórios. Isso nos leva a desenvolver duas estratégias: (1) aproveitar pares de imagem-texto de alta qualidade provenientes de modelos generativos líderes e (2) projetar um processo avançado de destilação personalizado para o LCM. Por meio de nossa exploração detalhada de quantização, perfilamento e implantação em dispositivos, alcançamos a geração rápida de imagens foto-realistas e alinhadas ao texto em apenas duas etapas, com latência inferior a um segundo em dispositivos de borda com recursos limitados.
English
The intensive computational burden of Stable Diffusion (SD) for text-to-image generation poses a significant hurdle for its practical application. To tackle this challenge, recent research focuses on methods to reduce sampling steps, such as Latent Consistency Model (LCM), and on employing architectural optimizations, including pruning and knowledge distillation. Diverging from existing approaches, we uniquely start with a compact SD variant, BK-SDM. We observe that directly applying LCM to BK-SDM with commonly used crawled datasets yields unsatisfactory results. It leads us to develop two strategies: (1) leveraging high-quality image-text pairs from leading generative models and (2) designing an advanced distillation process tailored for LCM. Through our thorough exploration of quantization, profiling, and on-device deployment, we achieve rapid generation of photo-realistic, text-aligned images in just two steps, with latency under one second on resource-limited edge devices.
PDF231December 15, 2024