ChatPaper.aiChatPaper

정렬 없이 음성-텍스트 공동 표현 개선하기

Improving Joint Speech-Text Representations Without Alignment

August 11, 2023
저자: Cal Peyser, Zhong Meng, Ke Hu, Rohit Prabhavalkar, Andrew Rosenberg, Tara N. Sainath, Michael Picheny, Kyunghyun Cho
cs.AI

초록

지난 한 해 동안, 텍스트와 이미지 도메인이 공동으로 표현되는 교차 모달 표현 공간이라는 아이디어를 기반으로 한 텍스트 프롬프트 이미지 생성 분야에서 놀라운 진전이 있었습니다. 이 아이디어는 ASR(Automatic Speech Recognition) 분야에서도 적용되어, 짝을 이루지 않은 음성과 텍스트 데이터를 모두 학습함으로써 매우 큰 매개변수 모델의 능력까지 확장할 수 있는 공동 음성-텍스트 인코더로 구현되었습니다. 이러한 방법들은 유망한 결과를 보여주지만, 음성과 텍스트 간에 본질적으로 존재하는 시퀀스 길이 불일치 문제를 해결하기 위해 업샘플링 휴리스틱이나 명시적 정렬 모델과 같은 특별한 처리가 필요했습니다. 본 연구에서는 공동 음성-텍스트 인코더가 시퀀스 길이를 무시함으로써 자연스럽게 모달리티 간 일관된 표현을 달성한다는 증거를 제시하고, 일관성 손실(consistency loss)이 길이 차이를 용인하며 단순히 최적의 정렬을 가정할 수 있다고 주장합니다. 우리는 이러한 손실이 대규모 매개변수 단일 언어 및 다국어 시스템에서 하류 WER(Word Error Rate)을 개선한다는 것을 보여줍니다.
English
The last year has seen astonishing progress in text-prompted image generation premised on the idea of a cross-modal representation space in which the text and image domains are represented jointly. In ASR, this idea has found application as joint speech-text encoders that can scale to the capacities of very large parameter models by being trained on both unpaired speech and text. While these methods show promise, they have required special treatment of the sequence-length mismatch inherent in speech and text, either by up-sampling heuristics or an explicit alignment model. In this work, we offer evidence that joint speech-text encoders naturally achieve consistent representations across modalities by disregarding sequence length, and argue that consistency losses could forgive length differences and simply assume the best alignment. We show that such a loss improves downstream WER in both a large-parameter monolingual and multilingual system.
PDF80December 15, 2024