ChatPaper.aiChatPaper

Прогрессивное обучение для объяснимого диалога с цитированием источников: снижение галлюцинаций до нуля в англо-хинди больших языковых моделях

Progressive Training for Explainable Citation-Grounded Dialogue: Reducing Hallucination to Zero in English-Hindi LLMs

March 19, 2026
Авторы: Vedant Pandya
cs.AI

Аннотация

Системы диалога, основанные на знаниях, ставят целью генерацию информативных, контекстно-релевантных ответов за счет использования внешних источников знаний. Однако большинство существующих подходов сосредоточены исключительно на английском языке, не имеют явных механизмов цитирования для проверки фактических утверждений и предлагают ограниченную прозрачность процесса принятия решений моделью. Мы представляем XKD-Dial — прогрессивный четырехэтапный конвейер обучения для объяснимой генерации диалогов на основе знаний в двуязычной среде (английский-хинди), включающий: (1) мультиязычную адаптацию, (2) SFT-дообучение на диалогах на английском языке с привязкой к цитированию, (3) двуязычное SFT-дообучение на диалогах и (4) GRPO-выравнивание с учетом цитирования в функциях вознаграждения. Мы оцениваем шесть моделей, охватывающих архитектуры типа «кодировщик-декодировщик» (250M-3B) и только декодера (1B-7B), на каждом этапе конвейера. Наши ключевые вклады заключаются в следующем: (i) три пост-фактум анализа объяснимости — выравнивание кросс-внимания, атрибуция Integrated Gradients и причинно-следственное обоснование на основе окклюзии — систематически применяются на протяжении траектории обучения, чтобы раскрыть, *как* усваивается поведение цитирования, а не только *усваивается ли* оно; (ii) SFT-дообучение с цитированием снижает уровень галлюцинаций до 0.0% для моделей «кодировщик-декодировщик», начиная со 2-го этапа; (iii) прогрессивный конвейер предотвращает катастрофическое забывание, одновременно улучшая возможности работы с хинди; (iv) меньшие модели после SFT-дообучения соответствуют по качеству большим моделям на английском языке; и (v) GRPO дает незначительное улучшение по сравнению с хорошо спроектированным SFT для задач структурированного цитирования. Оценка проводится по шести автоматическим метрикам (BLEU, ROUGE, BERTScore, FactScore, Citation-F1 и уровень галлюцинаций).
English
Knowledge-grounded dialogue systems aim to generate informative, contextually relevant responses by conditioning on external knowledge sources. However, most existing approaches focus exclusively on English, lack explicit citation mechanisms for verifying factual claims, and offer limited transparency into model decision-making. We present XKD-Dial, a progressive four-stage training pipeline for explainable, knowledge-grounded dialogue generation in a bilingual (English-Hindi) setting, comprising: (1) multilingual adaptation, (2) English dialogue SFT with citation grounding, (3) bilingual dialogue SFT, and (4) GRPO alignment with citation-aware rewards. We evaluate six models spanning encoder-decoder (250M-3B) and decoder-only (1B-7B) architectures at every pipeline stage. Our key contributions are: (i) three post-hoc explainability analyses - cross-attention alignment, Integrated Gradients attribution, and occlusion-based causal grounding - applied systematically across the training trajectory to reveal how citation behaviour is learned, not only whether it is learned; (ii) citation-grounded SFT reduces hallucination to 0.0% for encoder-decoder models from Stage 2 onward; (iii) the progressive pipeline prevents catastrophic forgetting while improving Hindi capabilities; (iv) smaller models match larger models on English after SFT; and (v) GRPO provides marginal improvement over well-designed SFT for structured citation tasks. We evaluate across six automatic metrics (BLEU, ROUGE, BERTScore, FactScore, Citation-F1, and hallucination rate).
PDF12March 25, 2026