sui-1: Resumen de Formato Largo Fundamentado y Verificable
sui-1: Grounded and Verifiable Long-Form Summarization
January 13, 2026
Autores: Benedikt Droste, Jan Philipp Harries, Maximilian Idahl, Björn Plüster
cs.AI
Resumen
Los modelos de lenguaje grandes generan con frecuencia resúmenes verosímiles pero infieles que los usuarios no pueden verificar con el texto fuente, una limitación crítica en dominios sensibles al cumplimiento normativo, como el análisis gubernamental y legal. Presentamos sui-1, un modelo de 24B parámetros que produce resúmenes abstractivos con citas en línea, permitiendo a los usuarios rastrear cada afirmación hasta su oración fuente. Nuestro pipeline de datos sintéticos combina el prompting de cadena de pensamiento con verificación multietapa, generando más de 22,000 ejemplos de entrenamiento de alta calidad en cinco idiomas a partir de diversas fuentes, incluyendo documentos parlamentarios, texto web y Wikipedia. La evaluación muestra que sui-1 supera significativamente a todas las líneas base de peso abierto probadas, incluyendo modelos con 3 veces más parámetros. Estos resultados demuestran que el entrenamiento específico para la tarea supera sustancialmente al mero escalamiento para la generación de resúmenes con citas fundamentadas. Los pesos del modelo y una demostración interactiva están disponibles públicamente.
English
Large language models frequently generate plausible but unfaithful summaries that users cannot verify against source text, a critical limitation in compliance-sensitive domains such as government and legal analysis. We present sui-1, a 24B parameter model that produces abstractive summaries with inline citations, enabling users to trace each claim to its source sentence. Our synthetic data pipeline combines chain-of-thought prompting with multi-stage verification, generating over 22,000 high-quality training examples across five languages from diverse sources including parliamentary documents, web text, and Wikipedia. Evaluation shows sui-1 significantly outperforms all tested open-weight baselines, including models with 3x more parameters. These results demonstrate that task-specific training substantially outperforms scale alone for citation-grounded summarization. Model weights and an interactive demo are publicly available.