Kosteneffizientes RAG für Entity Matching mit LLMs: Eine Untersuchung auf Basis von Blocking
Cost-Efficient RAG for Entity Matching with LLMs: A Blocking-based Exploration
February 5, 2026
papers.authors: Chuangtao Ma, Zeyu Zhang, Arijit Khan, Sebastian Schelter, Paul Groth
cs.AI
papers.abstract
Retrieval-augmented Generation (RAG) verbessert das Schlussfolgern von LLMs bei wissensintensiven Aufgaben, jedoch verursachen bestehende RAG-Pipelines erheblichen Abruf- und Generierungsaufwand bei der Anwendung auf großskalige Entity Matching. Um diese Einschränkung zu adressieren, führen wir CE-RAG4EM ein, eine kosteneffiziente RAG-Architektur, die den Rechenaufwand durch blockbasierte Batch-Retrieval und -Generierung reduziert. Wir präsentieren außerdem einen einheitlichen Rahmen zur Analyse und Bewertung von RAG-Systemen für Entity Matching, der blockierungsbewusste Optimierungen und Abrufgranularität in den Fokus stellt. Umfangreiche Experimente legen nahe, dass CE-RAG4EM eine vergleichbare oder verbesserte Matching-Qualität erreichen kann, während die End-to-End-Laufzeit im Vergleich zu starken Baselines erheblich reduziert wird. Unsere Analyse zeigt weiterhin, dass wichtige Konfigurationsparameter einen inhärenten Zielkonflikt zwischen Leistung und Aufwand aufweisen, was praktische Leitlinien für den Entwurf effizienter und skalierbarer RAG-Systeme für Entity Matching und Datenintegration bietet.
English
Retrieval-augmented generation (RAG) enhances LLM reasoning in knowledge-intensive tasks, but existing RAG pipelines incur substantial retrieval and generation overhead when applied to large-scale entity matching. To address this limitation, we introduce CE-RAG4EM, a cost-efficient RAG architecture that reduces computation through blocking-based batch retrieval and generation. We also present a unified framework for analyzing and evaluating RAG systems for entity matching, focusing on blocking-aware optimizations and retrieval granularity. Extensive experiments suggest that CE-RAG4EM can achieve comparable or improved matching quality while substantially reducing end-to-end runtime relative to strong baselines. Our analysis further reveals that key configuration parameters introduce an inherent trade-off between performance and overhead, offering practical guidance for designing efficient and scalable RAG systems for entity matching and data integration.