sui-1: Обоснованное и проверяемое длинное суммаризирование
sui-1: Grounded and Verifiable Long-Form Summarization
January 13, 2026
Авторы: Benedikt Droste, Jan Philipp Harries, Maximilian Idahl, Björn Plüster
cs.AI
Аннотация
Крупные языковые модели часто генерируют правдоподобные, но недостоверные выводы, которые пользователи не могут проверить по исходному тексту, что является серьёзным ограничением в чувствительных к соблюдению нормативных требований областях, таких как государственный сектор и юридический анализ. Мы представляем sui-1 — модель с 24 миллиардами параметров, которая создаёт абстрактные резюме со встроенными цитатами, позволяя пользователям отслеживать каждое утверждение до его исходного предложения. Наш синтетический конвейер данных сочетает цепочку рассуждений с многоэтапной проверкой, генерируя более 22 000 высококачественных учебных примеров на пяти языках из разнообразных источников, включая парламентские документы, веб-тексты и Wikipedia. Оценка показывает, что sui-1 значительно превосходит все протестированные открытые базовые модели, включая модели с втрое большим количеством параметров. Эти результаты демонстрируют, что специализированное обучение для конкретной задачи существенно превосходит простое масштабирование для создания обобщений, обоснованных цитированием. Веса модели и интерактивная демонстрация находятся в открытом доступе.
English
Large language models frequently generate plausible but unfaithful summaries that users cannot verify against source text, a critical limitation in compliance-sensitive domains such as government and legal analysis. We present sui-1, a 24B parameter model that produces abstractive summaries with inline citations, enabling users to trace each claim to its source sentence. Our synthetic data pipeline combines chain-of-thought prompting with multi-stage verification, generating over 22,000 high-quality training examples across five languages from diverse sources including parliamentary documents, web text, and Wikipedia. Evaluation shows sui-1 significantly outperforms all tested open-weight baselines, including models with 3x more parameters. These results demonstrate that task-specific training substantially outperforms scale alone for citation-grounded summarization. Model weights and an interactive demo are publicly available.