ChatPaper.aiChatPaper

大規模言語モデルを用いたエンティティマッチングにおけるコスト効率の良いRAG:ブロッキングベースの検討

Cost-Efficient RAG for Entity Matching with LLMs: A Blocking-based Exploration

February 5, 2026
著者: Chuangtao Ma, Zeyu Zhang, Arijit Khan, Sebastian Schelter, Paul Groth
cs.AI

要旨

検索拡張生成(RAG)は知識集約型タスクにおける大規模言語モデルの推論を強化するが、既存のRAGパイプラインを大規模エンティティマッチングに適用する際には、検索と生成に多大なオーバーヘッドが生じる。この課題に対処するため、本論文ではブロッキングに基づくバッチ検索と生成により計算コストを削減する、効率的なRAGアーキテクチャCE-RAG4EMを提案する。さらに、ブロッキングを考慮した最適化と検索粒度に焦点を当てた、エンティティマッチング向けRAGシステムの分析・評価のための統一フレームワークを提示する。大規模な実験により、CE-RAG4EMが強力なベースラインと比較して、マッチング品質を同等以上に維持しつつ、エンドツーエンドの実行時間を大幅に短縮できることが示された。我々の分析はさらに、主要な設定パラメータが性能とオーバーヘッドの間の本質的なトレードオフを生み出すことを明らかにし、エンティティマッチングとデータ統合のための効率的かつスケーラブルなRAGシステム設計に実践的な指針を提供する。
English
Retrieval-augmented generation (RAG) enhances LLM reasoning in knowledge-intensive tasks, but existing RAG pipelines incur substantial retrieval and generation overhead when applied to large-scale entity matching. To address this limitation, we introduce CE-RAG4EM, a cost-efficient RAG architecture that reduces computation through blocking-based batch retrieval and generation. We also present a unified framework for analyzing and evaluating RAG systems for entity matching, focusing on blocking-aware optimizations and retrieval granularity. Extensive experiments suggest that CE-RAG4EM can achieve comparable or improved matching quality while substantially reducing end-to-end runtime relative to strong baselines. Our analysis further reveals that key configuration parameters introduce an inherent trade-off between performance and overhead, offering practical guidance for designing efficient and scalable RAG systems for entity matching and data integration.
PDF12February 11, 2026