ChatPaper.aiChatPaper

sui-1 : Synthèse longue ancrée et vérifiable

sui-1: Grounded and Verifiable Long-Form Summarization

January 13, 2026
papers.authors: Benedikt Droste, Jan Philipp Harries, Maximilian Idahl, Björn Plüster
cs.AI

papers.abstract

Les grands modèles de langage produisent fréquemment des résumés plausibles mais infidèles que les utilisateurs ne peuvent pas vérifier par rapport au texte source, une limitation critique dans les domaines sensibles à la conformité comme l'analyse gouvernementale et juridique. Nous présentons sui-1, un modèle de 24 milliards de paramètres qui génère des résumés abstractifs avec des citations intégrées, permettant aux utilisateurs de retracer chaque affirmation à sa phrase source. Notre pipeline de données synthétiques combine l'incitation en chaîne de raisonnement avec une vérification multi-étapes, générant plus de 22 000 exemples d'entraînement de haute qualité dans cinq langues à partir de sources diverses incluant des documents parlementaires, du texte web et Wikipédia. L'évaluation montre que sui-1 surpasse significativement toutes les bases de référence open-weight testées, y compris des modèles ayant 3 fois plus de paramètres. Ces résultats démontrent qu'un entraînement spécifique à la tâche surpasse substantiellement la seule augmentation d'échelle pour la synthèse ancrée par des citations. Les poids du modèle et une démonstration interactive sont publiquement disponibles.
English
Large language models frequently generate plausible but unfaithful summaries that users cannot verify against source text, a critical limitation in compliance-sensitive domains such as government and legal analysis. We present sui-1, a 24B parameter model that produces abstractive summaries with inline citations, enabling users to trace each claim to its source sentence. Our synthetic data pipeline combines chain-of-thought prompting with multi-stage verification, generating over 22,000 high-quality training examples across five languages from diverse sources including parliamentary documents, web text, and Wikipedia. Evaluation shows sui-1 significantly outperforms all tested open-weight baselines, including models with 3x more parameters. These results demonstrate that task-specific training substantially outperforms scale alone for citation-grounded summarization. Model weights and an interactive demo are publicly available.
PDF01January 16, 2026