ChatPaper.aiChatPaper

sui-1: Riassunzione di Lungo Formato con Base Reale e Verificabile

sui-1: Grounded and Verifiable Long-Form Summarization

January 13, 2026
Autori: Benedikt Droste, Jan Philipp Harries, Maximilian Idahl, Björn Plüster
cs.AI

Abstract

I grandi modelli linguistici generano frequentemente riassunti plausibili ma infedeli che gli utenti non possono verificare rispetto al testo sorgente, una limitazione critica in domini sensibili alla conformità come l'analisi governativa e legale. Presentiamo Sui-1, un modello da 24 miliardi di parametri che produce riassunti astrattivi con citazioni in linea, consentendo agli utenti di ricondurre ogni affermazione alla sua frase sorgente. La nostra pipeline di dati sintetici combina il prompting a catena del ragionamento con una verifica multi-stadio, generando oltre 22.000 esempi di addestramento di alta qualità in cinque lingue da fonti diversificate, inclusi documenti parlamentari, testo web e Wikipedia. La valutazione mostra che Sui-1 supera significativamente tutte le baseline open-weight testate, inclusi modelli con 3 volte il numero di parametri. Questi risultati dimostrano che un addestramento specifico per il compito supera sostanzialmente la sola scala dimensionale per la sintesi basata su citazioni. I pesi del modello e una demo interattiva sono pubblicamente disponibili.
English
Large language models frequently generate plausible but unfaithful summaries that users cannot verify against source text, a critical limitation in compliance-sensitive domains such as government and legal analysis. We present sui-1, a 24B parameter model that produces abstractive summaries with inline citations, enabling users to trace each claim to its source sentence. Our synthetic data pipeline combines chain-of-thought prompting with multi-stage verification, generating over 22,000 high-quality training examples across five languages from diverse sources including parliamentary documents, web text, and Wikipedia. Evaluation shows sui-1 significantly outperforms all tested open-weight baselines, including models with 3x more parameters. These results demonstrate that task-specific training substantially outperforms scale alone for citation-grounded summarization. Model weights and an interactive demo are publicly available.
PDF32February 27, 2026