ChatPaper.aiChatPaper

Make-An-Audio 2: Geração de Áudio a partir de Texto com Aprimoramento Temporal

Make-An-Audio 2: Temporal-Enhanced Text-to-Audio Generation

May 29, 2023
Autores: Jiawei Huang, Yi Ren, Rongjie Huang, Dongchao Yang, Zhenhui Ye, Chen Zhang, Jinglin Liu, Xiang Yin, Zejun Ma, Zhou Zhao
cs.AI

Resumo

Modelos de difusão em grande escala têm obtido sucesso em tarefas de síntese de texto para áudio (T2A), mas frequentemente enfrentam problemas comuns, como desalinhamento semântico e consistência temporal inadequada, devido à compreensão limitada da linguagem natural e à escassez de dados. Além disso, estruturas espaciais 2D amplamente utilizadas em trabalhos de T2A resultam em qualidade de áudio insatisfatória ao gerar amostras de áudio de comprimento variável, pois não priorizam adequadamente as informações temporais. Para abordar esses desafios, propomos o Make-an-Audio 2, um método T2A baseado em difusão latente que se baseia no sucesso do Make-an-Audio. Nossa abordagem inclui várias técnicas para melhorar o alinhamento semântico e a consistência temporal: Primeiramente, utilizamos modelos de linguagem de grande escala (LLMs) pré-treinados para analisar o texto em pares estruturados <evento & ordem>, a fim de capturar melhor as informações temporais. Também introduzimos outro codificador de texto estruturado para auxiliar no aprendizado do alinhamento semântico durante o processo de difusão de remoção de ruído. Para melhorar o desempenho na geração de comprimento variável e aprimorar a extração de informações temporais, projetamos um difusor de remoção de ruído baseado em Transformer de avanço direto. Por fim, utilizamos LLMs para aumentar e transformar uma grande quantidade de dados de áudio-rotulado em conjuntos de dados áudio-texto, a fim de aliviar o problema de escassez de dados temporais. Experimentos extensivos mostram que nosso método supera os modelos de referência em métricas objetivas e subjetivas, alcançando ganhos significativos na compreensão de informações temporais, consistência semântica e qualidade sonora.
English
Large diffusion models have been successful in text-to-audio (T2A) synthesis tasks, but they often suffer from common issues such as semantic misalignment and poor temporal consistency due to limited natural language understanding and data scarcity. Additionally, 2D spatial structures widely used in T2A works lead to unsatisfactory audio quality when generating variable-length audio samples since they do not adequately prioritize temporal information. To address these challenges, we propose Make-an-Audio 2, a latent diffusion-based T2A method that builds on the success of Make-an-Audio. Our approach includes several techniques to improve semantic alignment and temporal consistency: Firstly, we use pre-trained large language models (LLMs) to parse the text into structured <event & order> pairs for better temporal information capture. We also introduce another structured-text encoder to aid in learning semantic alignment during the diffusion denoising process. To improve the performance of variable length generation and enhance the temporal information extraction, we design a feed-forward Transformer-based diffusion denoiser. Finally, we use LLMs to augment and transform a large amount of audio-label data into audio-text datasets to alleviate the problem of scarcity of temporal data. Extensive experiments show that our method outperforms baseline models in both objective and subjective metrics, and achieves significant gains in temporal information understanding, semantic consistency, and sound quality.
PDF31December 15, 2024