ChatPaper.aiChatPaper

Schnell, nicht ausgefallen: Neubewertung von G2P mit umfangreichen Daten und regelbasierten Modellen

Fast, Not Fancy: Rethinking G2P with Rich Data and Rule-Based Models

May 19, 2025
Autoren: Mahta Fetrat Qharabagh, Zahra Dehghanian, Hamid R. Rabiee
cs.AI

Zusammenfassung

Die Homograph-Disambiguierung bleibt eine bedeutende Herausforderung bei der Graphem-zu-Phonem (G2P)-Konvertierung, insbesondere für ressourcenarme Sprachen. Diese Herausforderung ist zweifach: (1) Die Erstellung ausgewogener und umfassender Homograph-Datensätze ist arbeitsintensiv und kostspielig, und (2) spezifische Disambiguierungsstrategien führen zu zusätzlicher Latenz, was sie für Echtzeitanwendungen wie Bildschirmlesegeräte und andere Barrierefreiheitstools ungeeignet macht. In diesem Papier gehen wir auf beide Probleme ein. Zunächst schlagen wir eine halbautomatisierte Pipeline zur Erstellung von Homograph-fokussierten Datensätzen vor, stellen den durch diese Pipeline generierten HomoRich-Datensatz vor und demonstrieren seine Wirksamkeit, indem wir ihn zur Verbesserung eines state-of-the-art, auf Deep Learning basierenden G2P-Systems für Persisch anwenden. Zweitens plädieren wir für einen Paradigmenwechsel – die Nutzung umfangreicher Offline-Datensätze, um die Entwicklung schneller, regelbasierter Methoden zu informieren, die für latenzempfindliche Barrierefreiheitsanwendungen wie Bildschirmlesegeräte geeignet sind. Zu diesem Zweck verbessern wir eines der bekanntesten regelbasierten G2P-Systeme, eSpeak, zu einer schnellen, homographenbewussten Version, HomoFast eSpeak. Unsere Ergebnisse zeigen eine Verbesserung der Homograph-Disambiguierungsgenauigkeit um etwa 30 % sowohl für das Deep-Learning-basierte als auch für das eSpeak-System.
English
Homograph disambiguation remains a significant challenge in grapheme-to-phoneme (G2P) conversion, especially for low-resource languages. This challenge is twofold: (1) creating balanced and comprehensive homograph datasets is labor-intensive and costly, and (2) specific disambiguation strategies introduce additional latency, making them unsuitable for real-time applications such as screen readers and other accessibility tools. In this paper, we address both issues. First, we propose a semi-automated pipeline for constructing homograph-focused datasets, introduce the HomoRich dataset generated through this pipeline, and demonstrate its effectiveness by applying it to enhance a state-of-the-art deep learning-based G2P system for Persian. Second, we advocate for a paradigm shift - utilizing rich offline datasets to inform the development of fast, rule-based methods suitable for latency-sensitive accessibility applications like screen readers. To this end, we improve one of the most well-known rule-based G2P systems, eSpeak, into a fast homograph-aware version, HomoFast eSpeak. Our results show an approximate 30% improvement in homograph disambiguation accuracy for the deep learning-based and eSpeak systems.

Summary

AI-Generated Summary

PDF02May 20, 2025