DZ-TDPO: Ненарушающее временное выравнивание для отслеживания изменяемых состояний в диалогах с длинным контекстом
DZ-TDPO: Non-Destructive Temporal Alignment for Mutable State Tracking in Long-Context Dialogue
December 3, 2025
Авторы: Yijun Liao
cs.AI
Аннотация
Системы диалога с длинным контекстом страдают от проблемы инерции состояния, когда статические ограничения препятствуют разрешению конфликтов между эволюционирующими намерениями пользователя и установленным историческим контекстом. Для решения этой проблемы мы предлагаем DZ-TDPO — недеструктивную фреймворк-систему согласования, которая объединяет конфликт-ориентированные динамические KL-ограничения с калиброванным временным смещением внимания. Эксперименты на наборе данных Multi-Session Chat (MSC) демонстрируют, что DZ-TDPO достигает рекордных показателей выигрыша (55,4% для Phi-3.5), сохраняя надежную zero-shot генерализацию. Наш анализ масштабирования выявляет "компромисс между емкостью и стабильностью": в то время как меньшие модели несут "налог согласования" (резкий рост перплексии) для преодоления исторической инерции, более крупная модель Qwen2.5-7B достигает 50,8% выигрыша с незначительными накладными расходами на перплексию. Это подтверждает, что TAI может быть смягчена за счет точной регуляции внимания, а не деструктивных обновлений весов, сохраняя общие возможности (MMLU) для моделей разных масштабов. Код и данные доступны: https://github.com/lyj20071013/DZ-TDPO
English
Long-context dialogue systems suffer from State Inertia, where static constraints prevent models from resolving conflicts between evolving user intents and established historical context. To address this, we propose DZ-TDPO, a non-destructive alignment framework that synergizes conflict-aware dynamic KL constraints with a calibrated temporal attention bias. Experiments on the Multi-Session Chat (MSC) dataset demonstrate that DZ-TDPO achieves state-of-the-art win rates (55.4% on Phi-3.5) while maintaining robust zero-shot generalization. Our scaling analysis reveals a "Capacity-Stability Trade-off": while smaller models incur an "alignment tax" (perplexity surge) to overcome historical inertia, the larger Qwen2.5-7B model achieves 50.8% win rate with negligible perplexity overhead. This confirms that TAI can be alleviated via precise attention regulation rather than destructive weight updates, preserving general capabilities (MMLU) across model scales. Code and data are available: https://github.com/lyj20071013/DZ-TDPO