Anche i piccoli ragionatori dovrebbero citare le loro fonti: presentazione della famiglia di modelli Pleias-RAG
Even Small Reasoners Should Quote Their Sources: Introducing the Pleias-RAG Model Family
April 25, 2025
Autori: Pierre-Carl Langlais, Pavel Chizhov, Mattia Nee, Carlos Rosas Hinostroza, Matthieu Delsart, Irène Girard, Othman Hicheur, Anastasia Stasenko, Ivan P. Yamshchikov
cs.AI
Abstract
Introduciamo una nuova generazione di modelli di ragionamento di piccole dimensioni per RAG, ricerca e riepilogo delle fonti. Pleias-RAG-350m e Pleias-RAG-1B sono addestrati su un ampio dataset sintetico che emula il recupero di una vasta gamma di fonti aperte multilingue dal Common Corpus. Offrono supporto nativo per la citazione e il grounding con citazioni letterali e reintegrano molteplici funzionalità associate ai flussi di lavoro RAG, come il routing delle query, la riformulazione delle query e il riordinamento delle fonti. Pleias-RAG-350m e Pleias-RAG-1B superano i modelli linguistici di piccole dimensioni (SLM) con meno di 4 miliardi di parametri sui benchmark RAG standardizzati (HotPotQA, 2wiki) e sono competitivi con modelli più grandi e popolari, tra cui Qwen-2.5-7B, Llama-3.1-8B e Gemma-3-4B. Sono gli unici SLM fino ad oggi a mantenere prestazioni RAG consistenti nelle principali lingue europee e a garantire un grounding sistematico delle affermazioni con riferimenti. Grazie alle loro dimensioni ridotte, alla facilità di implementazione su infrastrutture limitate e a una maggiore fattualità intrinseca, questi modelli aprono una gamma di nuovi casi d'uso per l'IA generativa.
English
We introduce a new generation of small reasoning models for RAG, search, and
source summarization. Pleias-RAG-350m and Pleias-RAG-1B are mid-trained on a
large synthetic dataset emulating the retrieval of a wide variety of
multilingual open sources from the Common Corpus. They provide native support
for citation and grounding with literal quotes and reintegrate multiple
features associated with RAG workflows, such as query routing, query
reformulation, and source reranking. Pleias-RAG-350m and Pleias-RAG-1B
outperform SLMs below 4 billion parameters on standardized RAG benchmarks
(HotPotQA, 2wiki) and are competitive with popular larger models, including
Qwen-2.5-7B, Llama-3.1-8B, and Gemma-3-4B. They are the only SLMs to date
maintaining consistent RAG performance across leading European languages and
ensuring systematic reference grounding for statements. Due to their size and
ease of deployment on constrained infrastructure and higher factuality by
design, the models unlock a range of new use cases for generative AI.Summary
AI-Generated Summary