Развитие систем обратных словарей для арабского языка: подход на основе трансформеров с рекомендациями по созданию наборов данных
Advancing Arabic Reverse Dictionary Systems: A Transformer-Based Approach with Dataset Construction Guidelines
April 30, 2025
Авторы: Serry Sibaee, Samar Ahmed, Abdullah Al Harbi, Omer Nacar, Adel Ammar, Yasser Habashi, Wadii Boulila
cs.AI
Аннотация
Данное исследование восполняет критический пробел в области обработки естественного языка для арабского языка, разрабатывая эффективную систему арабского обратного словаря (RD), которая позволяет пользователям находить слова на основе их описаний или значений. Мы представляем новый подход на основе трансформеров с архитектурой полуэнкодерной нейронной сети, включающей геометрически уменьшающиеся слои, что позволяет достичь современных результатов для задач арабского RD. Наша методология включает всеобъемлющий процесс создания набора данных и устанавливает формальные стандарты качества для арабских лексикографических определений. Эксперименты с различными предобученными моделями демонстрируют, что модели, специфичные для арабского языка, значительно превосходят общие многоязычные эмбеддинги, причем ARBERTv2 достигает наилучшего ранжирующего показателя (0,0644). Кроме того, мы предоставляем формальную абстракцию задачи обратного словаря, которая углубляет теоретическое понимание, и разрабатываем модульную, расширяемую библиотеку на Python (RDTL) с настраиваемыми конвейерами обучения. Наш анализ качества набора данных выявляет важные инсайты для улучшения построения арабских определений, что приводит к восьми конкретным стандартам для создания высококачественных ресурсов обратного словаря. Эта работа вносит значительный вклад в арабскую вычислительную лингвистику и предоставляет ценные инструменты для изучения языка, академического письма и профессиональной коммуникации на арабском языке.
English
This study addresses the critical gap in Arabic natural language processing
by developing an effective Arabic Reverse Dictionary (RD) system that enables
users to find words based on their descriptions or meanings. We present a novel
transformer-based approach with a semi-encoder neural network architecture
featuring geometrically decreasing layers that achieves state-of-the-art
results for Arabic RD tasks. Our methodology incorporates a comprehensive
dataset construction process and establishes formal quality standards for
Arabic lexicographic definitions. Experiments with various pre-trained models
demonstrate that Arabic-specific models significantly outperform general
multilingual embeddings, with ARBERTv2 achieving the best ranking score
(0.0644). Additionally, we provide a formal abstraction of the reverse
dictionary task that enhances theoretical understanding and develop a modular,
extensible Python library (RDTL) with configurable training pipelines. Our
analysis of dataset quality reveals important insights for improving Arabic
definition construction, leading to eight specific standards for building
high-quality reverse dictionary resources. This work contributes significantly
to Arabic computational linguistics and provides valuable tools for language
learning, academic writing, and professional communication in Arabic.