ChatPaper.aiChatPaper

小さな推論者でも出典を引用すべき:Pleias-RAGモデルファミリーの紹介

Even Small Reasoners Should Quote Their Sources: Introducing the Pleias-RAG Model Family

April 25, 2025
著者: Pierre-Carl Langlais, Pavel Chizhov, Mattia Nee, Carlos Rosas Hinostroza, Matthieu Delsart, Irène Girard, Othman Hicheur, Anastasia Stasenko, Ivan P. Yamshchikov
cs.AI

要旨

RAG、検索、およびソース要約のための新世代の小型推論モデルを紹介します。Pleias-RAG-350mとPleias-RAG-1Bは、Common Corpusから多様な多言語オープンソースを取得することを模倣した大規模な合成データセットで中間学習されています。これらのモデルは、引用とリテラルな引用文によるグラウンディングをネイティブにサポートし、クエリルーティング、クエリリフォーミュレーション、ソースの再ランキングなど、RAGワークフローに関連する複数の機能を再統合します。Pleias-RAG-350mとPleias-RAG-1Bは、40億パラメータ未満の小型言語モデル(SLM)を標準化されたRAGベンチマーク(HotPotQA、2wiki)で上回り、Qwen-2.5-7B、Llama-3.1-8B、Gemma-3-4Bなどの人気のある大規模モデルとも競争力があります。これらは、主要なヨーロッパ言語にわたって一貫したRAG性能を維持し、ステートメントに対する体系的な参照グラウンディングを保証する唯一のSLMです。そのサイズと制約のあるインフラストラクチャでの容易なデプロイ可能性、および設計上の高い事実性により、これらのモデルは生成AIの新たなユースケースを開拓します。
English
We introduce a new generation of small reasoning models for RAG, search, and source summarization. Pleias-RAG-350m and Pleias-RAG-1B are mid-trained on a large synthetic dataset emulating the retrieval of a wide variety of multilingual open sources from the Common Corpus. They provide native support for citation and grounding with literal quotes and reintegrate multiple features associated with RAG workflows, such as query routing, query reformulation, and source reranking. Pleias-RAG-350m and Pleias-RAG-1B outperform SLMs below 4 billion parameters on standardized RAG benchmarks (HotPotQA, 2wiki) and are competitive with popular larger models, including Qwen-2.5-7B, Llama-3.1-8B, and Gemma-3-4B. They are the only SLMs to date maintaining consistent RAG performance across leading European languages and ensuring systematic reference grounding for statements. Due to their size and ease of deployment on constrained infrastructure and higher factuality by design, the models unlock a range of new use cases for generative AI.

Summary

AI-Generated Summary

PDF92April 28, 2025