ChatPaper.aiChatPaper

Jina-ColBERT-v2: 一般用途の多言語遅い相互作用リトリーバ

Jina-ColBERT-v2: A General-Purpose Multilingual Late Interaction Retriever

August 29, 2024
著者: Rohan Jha, Bo Wang, Michael Günther, Saba Sturua, Mohammad Kalim Akram, Han Xiao
cs.AI

要旨

ColBERTなどのマルチベクトル密モデルは、情報検索において非常に効果的であることが証明されています。ColBERTの後段インタラクションスコアリングは、バイエンコーダーアーキテクチャと最近のインデックス付けや検索の最適化により、クロスエンコーダーで見られる共同クエリ-ドキュメントアテンションを近似しつつ、従来の密検索モデルに近い推論効率を維持しています。本論文では、ColBERTモデルアーキテクチャとトレーニングパイプラインにいくつかの改良を導入し、特に異種多言語データに適した、より確立されたシングルベクトル埋め込みモデルパラダイムで成功している技術を活用しています。当社の新しいモデル、Jina-ColBERT-v2は、英語および多言語の検索タスク全般で強力なパフォーマンスを示し、以前のモデルと比較して最大50%のストレージ要件を削減しています。
English
Multi-vector dense models, such as ColBERT, have proven highly effective in information retrieval. ColBERT's late interaction scoring approximates the joint query-document attention seen in cross-encoders while maintaining inference efficiency closer to traditional dense retrieval models, thanks to its bi-encoder architecture and recent optimizations in indexing and search. In this paper, we introduce several improvements to the ColBERT model architecture and training pipeline, leveraging techniques successful in the more established single-vector embedding model paradigm, particularly those suited for heterogeneous multilingual data. Our new model, Jina-ColBERT-v2, demonstrates strong performance across a range of English and multilingual retrieval tasks, while also cutting storage requirements by up to 50% compared to previous models.

Summary

AI-Generated Summary

PDF81November 16, 2024