ChatPaper.aiChatPaper

AudioToken: Adaptação de Modelos de Difusão Condicionados por Texto para Geração de Áudio para Imagem

AudioToken: Adaptation of Text-Conditioned Diffusion Models for Audio-to-Image Generation

May 22, 2023
Autores: Guy Yariv, Itai Gat, Lior Wolf, Yossi Adi, Idan Schwartz
cs.AI

Resumo

Nos últimos anos, a geração de imagens apresentou um grande salto em desempenho, com os modelos de difusão desempenhando um papel central. Embora gerem imagens de alta qualidade, esses modelos são principalmente condicionados por descrições textuais. Isso levanta a questão: "como podemos adaptar esses modelos para serem condicionados por outras modalidades?". Neste artigo, propomos um novo método que utiliza modelos de difusão latente treinados para geração de texto para imagem para gerar imagens condicionadas por gravações de áudio. Usando um modelo de codificação de áudio pré-treinado, o método proposto codifica o áudio em um novo token, que pode ser considerado como uma camada de adaptação entre as representações de áudio e texto. Esse paradigma de modelagem requer um número reduzido de parâmetros treináveis, tornando a abordagem proposta atraente para otimização leve. Os resultados sugerem que o método proposto é superior aos métodos de linha de base avaliados, considerando métricas objetivas e subjetivas. O código e as amostras estão disponíveis em: https://pages.cs.huji.ac.il/adiyoss-lab/AudioToken.
English
In recent years, image generation has shown a great leap in performance, where diffusion models play a central role. Although generating high-quality images, such models are mainly conditioned on textual descriptions. This begs the question: "how can we adopt such models to be conditioned on other modalities?". In this paper, we propose a novel method utilizing latent diffusion models trained for text-to-image-generation to generate images conditioned on audio recordings. Using a pre-trained audio encoding model, the proposed method encodes audio into a new token, which can be considered as an adaptation layer between the audio and text representations. Such a modeling paradigm requires a small number of trainable parameters, making the proposed approach appealing for lightweight optimization. Results suggest the proposed method is superior to the evaluated baseline methods, considering objective and subjective metrics. Code and samples are available at: https://pages.cs.huji.ac.il/adiyoss-lab/AudioToken.
PDF32February 8, 2026