DZ-TDPO: Allineamento Temporale Non Distruttivo per il Monitoraggio degli Stati Mutabili nei Dialogi a Lungo Contesto
DZ-TDPO: Non-Destructive Temporal Alignment for Mutable State Tracking in Long-Context Dialogue
December 3, 2025
Autori: Yijun Liao
cs.AI
Abstract
I sistemi di dialogo a contesto lungo soffrono di Inerzia di Stato, dove vincoli statici impediscono ai modelli di risolvere i conflitti tra intenti utente in evoluzione e il contesto storico consolidato. Per affrontare questo problema, proponiamo DZ-TDPO, un framework di allineamento non distruttivo che sinergizza vincoli dinamici KL consapevoli dei conflitti con un bias di attenzione temporale calibrato. Esperimenti sul dataset Multi-Session Chat (MSC) dimostrano che DZ-TDPO raggiunge tassi di vittoria allo stato dell'arte (55,4% su Phi-3.5) mantenendo al contempo una robusta generalizzazione zero-shot. La nostra analisi di scalabilità rivela un "Compromesso Capacità-Stabilità": mentre modelli più piccoli incorrono in un "costo di allineamento" (picco di perplexity) per superare l'inerzia storica, il modello più grande Qwen2.5-7B raggiunge un tasso di vittoria del 50,8% con un overhead di perplexity trascurabile. Ciò conferma che l'Inerzia di Stato può essere alleviata tramite una regolazione precisa dell'attenzione piuttosto che aggiornamenti distruttivi dei pesi, preservando le capacità generali (MMLU) attraverso le diverse scale dei modelli. Codice e dati sono disponibili: https://github.com/lyj20071013/DZ-TDPO
English
Long-context dialogue systems suffer from State Inertia, where static constraints prevent models from resolving conflicts between evolving user intents and established historical context. To address this, we propose DZ-TDPO, a non-destructive alignment framework that synergizes conflict-aware dynamic KL constraints with a calibrated temporal attention bias. Experiments on the Multi-Session Chat (MSC) dataset demonstrate that DZ-TDPO achieves state-of-the-art win rates (55.4% on Phi-3.5) while maintaining robust zero-shot generalization. Our scaling analysis reveals a "Capacity-Stability Trade-off": while smaller models incur an "alignment tax" (perplexity surge) to overcome historical inertia, the larger Qwen2.5-7B model achieves 50.8% win rate with negligible perplexity overhead. This confirms that TAI can be alleviated via precise attention regulation rather than destructive weight updates, preserving general capabilities (MMLU) across model scales. Code and data are available: https://github.com/lyj20071013/DZ-TDPO