ChatPaper.aiChatPaper

AudioToken: Aanpassing van tekstgeconditioneerde diffusiemodellen voor audio-naar-beeldgeneratie

AudioToken: Adaptation of Text-Conditioned Diffusion Models for Audio-to-Image Generation

May 22, 2023
Auteurs: Guy Yariv, Itai Gat, Lior Wolf, Yossi Adi, Idan Schwartz
cs.AI

Samenvatting

In de afgelopen jaren heeft beeldgeneratie een grote sprong voorwaarts gemaakt in prestaties, waarbij diffusiemodellen een centrale rol spelen. Hoewel deze modellen hoogwaardige beelden genereren, zijn ze voornamelijk gebaseerd op tekstuele beschrijvingen. Dit roept de vraag op: "hoe kunnen we dergelijke modellen aanpassen om te worden gebaseerd op andere modaliteiten?". In dit artikel stellen we een nieuwe methode voor die gebruikmaakt van latente diffusiemodellen die zijn getraind voor tekst-naar-beeldgeneratie om beelden te genereren die gebaseerd zijn op audio-opnames. Met behulp van een vooraf getraind audio-encoderingsmodel codeert de voorgestelde methode audio in een nieuwe token, die kan worden beschouwd als een aanpassingslaag tussen de audio- en tekstrepresentaties. Een dergelijk modelparadigma vereist een klein aantal trainbare parameters, waardoor de voorgestelde aanpak aantrekkelijk is voor lichtgewicht optimalisatie. De resultaten suggereren dat de voorgestelde methode superieur is aan de geëvalueerde baseline-methoden, zowel wat betreft objectieve als subjectieve metrieken. Code en voorbeelden zijn beschikbaar op: https://pages.cs.huji.ac.il/adiyoss-lab/AudioToken.
English
In recent years, image generation has shown a great leap in performance, where diffusion models play a central role. Although generating high-quality images, such models are mainly conditioned on textual descriptions. This begs the question: "how can we adopt such models to be conditioned on other modalities?". In this paper, we propose a novel method utilizing latent diffusion models trained for text-to-image-generation to generate images conditioned on audio recordings. Using a pre-trained audio encoding model, the proposed method encodes audio into a new token, which can be considered as an adaptation layer between the audio and text representations. Such a modeling paradigm requires a small number of trainable parameters, making the proposed approach appealing for lightweight optimization. Results suggest the proposed method is superior to the evaluated baseline methods, considering objective and subjective metrics. Code and samples are available at: https://pages.cs.huji.ac.il/adiyoss-lab/AudioToken.
PDF32February 8, 2026