ChatPaper.aiChatPaper

Улучшение совместных речевых и текстовых представлений без выравнивания

Improving Joint Speech-Text Representations Without Alignment

August 11, 2023
Авторы: Cal Peyser, Zhong Meng, Ke Hu, Rohit Prabhavalkar, Andrew Rosenberg, Tara N. Sainath, Michael Picheny, Kyunghyun Cho
cs.AI

Аннотация

За последний год был достигнут впечатляющий прогресс в генерации изображений на основе текстовых запросов, основанной на идее кросс-модального пространства представлений, в котором текстовые и визуальные домены представлены совместно. В области автоматического распознавания речи (ASR) эта идея нашла применение в виде совместных кодировщиков речи и текста, которые могут масштабироваться до возможностей моделей с очень большим количеством параметров благодаря обучению на непарных данных речи и текста. Хотя эти методы демонстрируют перспективность, они требуют специального подхода к обработке несоответствия длины последовательностей, присущего речи и тексту, либо с помощью эвристик повышения частоты дискретизации, либо с использованием явной модели выравнивания. В данной работе мы предоставляем доказательства того, что совместные кодировщики речи и текста естественным образом достигают согласованных представлений между модальностями, игнорируя длину последовательностей, и утверждаем, что функции потерь на согласованность могут прощать различия в длине и просто предполагать наилучшее выравнивание. Мы показываем, что такая функция потерь улучшает показатель WER (Word Error Rate) как в крупнопараметрической монолингвальной, так и в многоязычной системе.
English
The last year has seen astonishing progress in text-prompted image generation premised on the idea of a cross-modal representation space in which the text and image domains are represented jointly. In ASR, this idea has found application as joint speech-text encoders that can scale to the capacities of very large parameter models by being trained on both unpaired speech and text. While these methods show promise, they have required special treatment of the sequence-length mismatch inherent in speech and text, either by up-sampling heuristics or an explicit alignment model. In this work, we offer evidence that joint speech-text encoders naturally achieve consistent representations across modalities by disregarding sequence length, and argue that consistency losses could forgive length differences and simply assume the best alignment. We show that such a loss improves downstream WER in both a large-parameter monolingual and multilingual system.
PDF80December 15, 2024