ChatPaper.aiChatPaper

Snel, niet uitgebreid: Heroverweging van G2P met rijke data en op regels gebaseerde modellen

Fast, Not Fancy: Rethinking G2P with Rich Data and Rule-Based Models

May 19, 2025
Auteurs: Mahta Fetrat Qharabagh, Zahra Dehghanian, Hamid R. Rabiee
cs.AI

Samenvatting

Homograafdisambiguatie blijft een aanzienlijke uitdaging in grafeem-naar-foneem (G2P) conversie, vooral voor talen met beperkte bronnen. Deze uitdaging is tweeledig: (1) het creëren van gebalanceerde en uitgebreide homograafdatasets is arbeidsintensief en kostbaar, en (2) specifieke disambiguatiestrategieën introduceren extra latentie, waardoor ze ongeschikt zijn voor realtime toepassingen zoals schermlezers en andere toegankelijkheidstools. In dit artikel pakken we beide problemen aan. Ten eerste stellen we een semi-geautomatiseerde pipeline voor voor het construeren van homograafgerichte datasets, introduceren we de HomoRich dataset die via deze pipeline is gegenereerd, en demonstreren we de effectiviteit ervan door deze toe te passen om een state-of-the-art deep learning-gebaseerd G2P-systeem voor Perzisch te verbeteren. Ten tweede pleiten we voor een paradigmaverschuiving - het gebruik van rijke offline datasets om de ontwikkeling van snelle, op regels gebaseerde methoden te informeren die geschikt zijn voor latentiegevoelige toegankelijkheidstoepassingen zoals schermlezers. Hiertoe verbeteren we een van de meest bekende op regels gebaseerde G2P-systemen, eSpeak, tot een snelle homograafbewuste versie, HomoFast eSpeak. Onze resultaten laten een verbetering van ongeveer 30% zien in de nauwkeurigheid van homograafdisambiguatie voor zowel het deep learning-gebaseerde systeem als het eSpeak-systeem.
English
Homograph disambiguation remains a significant challenge in grapheme-to-phoneme (G2P) conversion, especially for low-resource languages. This challenge is twofold: (1) creating balanced and comprehensive homograph datasets is labor-intensive and costly, and (2) specific disambiguation strategies introduce additional latency, making them unsuitable for real-time applications such as screen readers and other accessibility tools. In this paper, we address both issues. First, we propose a semi-automated pipeline for constructing homograph-focused datasets, introduce the HomoRich dataset generated through this pipeline, and demonstrate its effectiveness by applying it to enhance a state-of-the-art deep learning-based G2P system for Persian. Second, we advocate for a paradigm shift - utilizing rich offline datasets to inform the development of fast, rule-based methods suitable for latency-sensitive accessibility applications like screen readers. To this end, we improve one of the most well-known rule-based G2P systems, eSpeak, into a fast homograph-aware version, HomoFast eSpeak. Our results show an approximate 30% improvement in homograph disambiguation accuracy for the deep learning-based and eSpeak systems.

Summary

AI-Generated Summary

PDF02May 20, 2025