sui-1: 근거가 명확하고 검증 가능한 장문 요약
sui-1: Grounded and Verifiable Long-Form Summarization
January 13, 2026
저자: Benedikt Droste, Jan Philipp Harries, Maximilian Idahl, Björn Plüster
cs.AI
초록
대규모 언어 모델은 사용자가 원본 텍스트와 대조하여 확인할 수 없는 그럴듯하지만 정확성에 문제가 있는 요약을 자주 생성하는데, 이는 정부 및 법률 분석과 같이 규정 준수가 중요한 분야에서 심각한 한계로 작용합니다. 본 논문은 24B 파라미터 규모의 sui-1 모델을 소개합니다. 이 모델은 인라인 인용이 포함된 추상적 요약을 생성하여 사용자가 모든 주장의 근거가 되는 원문 문장을 추적할 수 있게 합니다. 저희의 합성 데이터 파이프라인은 사고 사슬(chain-of-thought) 프롬프트 기법과 다단계 검증 절차를 결합하여, 의회 문서, 웹 텍스트, 위키백과 등 다양한 출처의 자료로부터 5개 언어로 총 22,000개 이상의 고품질 학습 예시를 생성했습니다. 평가 결과, sui-1은 파라미터 수가 3배 이상 많은 모델들을 포함하여 테스트된 모든 오픈 가중치 기준 모델들을 크게 능가하는 성능을 보였습니다. 이러한 결과는 인용 기반 요약 작업에서는 규모 확장만큼 과제 특화적 훈련이 매우 중요함을 입증합니다. 모델 가중치와 대화형 데모는 공개되어 있습니다.
English
Large language models frequently generate plausible but unfaithful summaries that users cannot verify against source text, a critical limitation in compliance-sensitive domains such as government and legal analysis. We present sui-1, a 24B parameter model that produces abstractive summaries with inline citations, enabling users to trace each claim to its source sentence. Our synthetic data pipeline combines chain-of-thought prompting with multi-stage verification, generating over 22,000 high-quality training examples across five languages from diverse sources including parliamentary documents, web text, and Wikipedia. Evaluation shows sui-1 significantly outperforms all tested open-weight baselines, including models with 3x more parameters. These results demonstrate that task-specific training substantially outperforms scale alone for citation-grounded summarization. Model weights and an interactive demo are publicly available.