ChatPaper.aiChatPaper

sui-1: Gegronde en verifieerbare langvormige samenvatting

sui-1: Grounded and Verifiable Long-Form Summarization

January 13, 2026
Auteurs: Benedikt Droste, Jan Philipp Harries, Maximilian Idahl, Björn Plüster
cs.AI

Samenvatting

Grote taalmodellen genereren vaak plausibele maar onbetrouwbare samenvattingen die gebruikers niet kunnen verifiëren aan de hand van de brontekst, een kritieke beperking in compliance-gevoelige domeinen zoals overheids- en juridische analyse. Wij presenteren sui-1, een model met 24B parameters dat abstractieve samenvattingen produceert met inline citaties, waardoor gebruikers elke bewering kunnen herleiden naar de bronzin. Onze synthetische datapijplijn combineert chain-of-thought prompting met meerfasenverificatie, en genereert meer dan 22.000 hoogwaardige trainingsvoorbeelden in vijf talen uit diverse bronnen, waaronder parlementaire documenten, webteksten en Wikipedia. Evaluatie toont aan dat sui-1 alle geteste open-weight baseline-modellen significant overtreft, inclusief modellen met 3x zoveel parameters. Deze resultaten tonen aan dat taakspecifieke training voor citatie-onderbouwde samenvatting substantieel beter presteert dan schaal alleen. De modelgewichten en een interactieve demo zijn openbaar beschikbaar.
English
Large language models frequently generate plausible but unfaithful summaries that users cannot verify against source text, a critical limitation in compliance-sensitive domains such as government and legal analysis. We present sui-1, a 24B parameter model that produces abstractive summaries with inline citations, enabling users to trace each claim to its source sentence. Our synthetic data pipeline combines chain-of-thought prompting with multi-stage verification, generating over 22,000 high-quality training examples across five languages from diverse sources including parliamentary documents, web text, and Wikipedia. Evaluation shows sui-1 significantly outperforms all tested open-weight baselines, including models with 3x more parameters. These results demonstrate that task-specific training substantially outperforms scale alone for citation-grounded summarization. Model weights and an interactive demo are publicly available.
PDF32February 27, 2026