LM-Lexicon: 意味的専門家の調和による定義モデリングの改善
LM-Lexicon: Improving Definition Modeling via Harmonizing Semantic Experts
February 15, 2026
著者: Yang Liu, Jiaye Yang, Weikang Li, Jiahui Liang, Yang Li, Lingyong Yan
cs.AI
要旨
本論文では、データクラスタリング、セマンティック専門家学習、スパース混合専門家アーキテクチャを用いたモデル統合を組み込んだ革新的な定義モデリング手法「LM-Lexicon」を提案する。定義モデリングタスクを専門的な意味領域に分解し、小規模言語モデルを領域専門家として学習させることで、LM-Lexiconは広く使用されている5つのベンチマークにおいて既存手法を大幅に改善した(従来の最先端モデルと比較してBLEUスコア+7%向上)。実証的に以下のことを示す:1)クラスタリング戦略により、定義品質が約10%向上する細粒度の専門家特化が可能となること;2)意味認識型ドメインレベルルーティング機構が、従来のトークンレベルルーティングよりも高い専門家効率(+1%)を達成すること;3)テスト時計算量とセマンティック専門家のスケーリングを通じてさらなる性能向上が得られること。本研究は定義モデリングを進展させると同時に、意味集約型アプリケーションのための効率的な言語モデル開発への知見を提供する。
English
We introduce LM-Lexicon, an innovative definition modeling approach that incorporates data clustering, semantic expert learning, and model merging using a sparse mixture-of-experts architecture. By decomposing the definition modeling task into specialized semantic domains, where small language models are trained as domain experts, LM-Lexicon achieves substantial improvements (+7% BLEU score compared with the prior state-of-the-art model) over existing methods on five widely used benchmarks. Empirically, we demonstrate that 1) the clustering strategy enables fine-grained expert specialization with nearly 10% improvement in definition quality; 2) the semantic-aware domain-level routing mechanism achieves higher expert efficacy (+1%) than conventional token-level routing; and 3) further performance gains can be obtained through test-time compute and semantic expert scaling. Our work advances definition modeling while providing insights into the development of efficient language models for semantic-intensive applications.