ChatPaper.aiChatPaper

sui-1: Fundierte und überprüfbare Langform-Zusammenfassung

sui-1: Grounded and Verifiable Long-Form Summarization

January 13, 2026
papers.authors: Benedikt Droste, Jan Philipp Harries, Maximilian Idahl, Björn Plüster
cs.AI

papers.abstract

Große Sprachmodelle generieren häufig plausible, aber ungenaue Zusammenfassungen, die Nutzer nicht am Ausgangstext überprüfen können – eine kritische Einschränkung in compliance-sensitiven Bereichen wie Regierungsarbeit und Rechtsanalyse. Wir stellen sui-1 vor, ein Modell mit 24B Parametern, das abstrahierende Zusammenfassungen mit Inline-Zitaten erzeugt und es Nutzern ermöglicht, jede Behauptung zu ihrem Ursprungssatz zurückzuverfolgen. Unsere synthetische Datenpipeline kombiniert Chain-of-Thought-Prompting mit mehrstufiger Verifikation und erzeugt über 22.000 hochwertige Trainingsbeispiele in fünf Sprachen aus diversen Quellen, einschließlich parlamentarischer Dokumente, Webtexten und Wikipedia. Die Evaluation zeigt, dass sui-1 alle getesteten Open-Weight-Baselines signifikant übertrifft, einschließlich Modelle mit dreifach mehr Parametern. Diese Ergebnisse demonstrieren, dass aufgabenspezifisches Training für zitiergestützte Zusammenfassung deutlich besser abschneidet als reine Skalierung. Modellgewichte und eine interaktive Demo sind öffentlich verfügbar.
English
Large language models frequently generate plausible but unfaithful summaries that users cannot verify against source text, a critical limitation in compliance-sensitive domains such as government and legal analysis. We present sui-1, a 24B parameter model that produces abstractive summaries with inline citations, enabling users to trace each claim to its source sentence. Our synthetic data pipeline combines chain-of-thought prompting with multi-stage verification, generating over 22,000 high-quality training examples across five languages from diverse sources including parliamentary documents, web text, and Wikipedia. Evaluation shows sui-1 significantly outperforms all tested open-weight baselines, including models with 3x more parameters. These results demonstrate that task-specific training substantially outperforms scale alone for citation-grounded summarization. Model weights and an interactive demo are publicly available.
PDF01January 16, 2026