ChatPaper.aiChatPaper

Legenda de Áudio Eficiente com Destilação de Conhecimento ao Nível do Codificador

Efficient Audio Captioning with Encoder-Level Knowledge Distillation

July 19, 2024
Autores: Xuenan Xu, Haohe Liu, Mengyue Wu, Wenwu Wang, Mark D. Plumbley
cs.AI

Resumo

Significativas melhorias foram alcançadas na legenda automática de áudio (AAC) com modelos recentes. No entanto, esses modelos têm se tornado cada vez maiores à medida que seu desempenho é aprimorado. Neste trabalho, propomos um framework de destilação de conhecimento (KD) para AAC. Nossa análise mostra que nos modelos AAC baseados em codificador-decodificador, é mais eficaz destilar conhecimento no codificador em comparação com o decodificador. Para isso, incorporamos a perda de KD ao nível do codificador no treinamento, além da perda supervisionada padrão e da perda de KD ao nível de sequência. Investigamos dois métodos de KD ao nível do codificador, baseados na perda de erro quadrático médio (MSE) e na perda contrastiva, respectivamente. Os resultados experimentais demonstram que o KD contrastivo é mais robusto do que o KD MSE, exibindo desempenho superior em situações de escassez de dados. Ao aproveitar dados apenas de áudio no treinamento no framework de KD, nosso modelo aluno alcança desempenho competitivo, com uma velocidade de inferência 19 vezes mais rápida. Uma demonstração online está disponível em \url{https://huggingface.co/spaces/wsntxxn/efficient_audio_captioning}.
English
Significant improvement has been achieved in automated audio captioning (AAC) with recent models. However, these models have become increasingly large as their performance is enhanced. In this work, we propose a knowledge distillation (KD) framework for AAC. Our analysis shows that in the encoder-decoder based AAC models, it is more effective to distill knowledge into the encoder as compared with the decoder. To this end, we incorporate encoder-level KD loss into training, in addition to the standard supervised loss and sequence-level KD loss. We investigate two encoder-level KD methods, based on mean squared error (MSE) loss and contrastive loss, respectively. Experimental results demonstrate that contrastive KD is more robust than MSE KD, exhibiting superior performance in data-scarce situations. By leveraging audio-only data into training in the KD framework, our student model achieves competitive performance, with an inference speed that is 19 times fasterAn online demo is available at \url{https://huggingface.co/spaces/wsntxxn/efficient_audio_captioning}.
PDF52November 28, 2024