ChatPaper.aiChatPaper

T3D: Wenigschritt-Diffusionssprachmodelle durch Trajektorien-Selbstdistillation mit direkter diskriminativer Optimierung

T3D: Few-Step Diffusion Language Models via Trajectory Self-Distillation with Direct Discriminative Optimization

February 12, 2026
papers.authors: Tunyu Zhang, Xinxi Zhang, Ligong Han, Haizhou Shi, Xiaoxiao He, Zhuowei Li, Hao Wang, Kai Xu, Akash Srivastava, Hao Wang, Vladimir Pavlovic, Dimitris N. Metaxas
cs.AI

papers.abstract

Diffusionsgroßsprachmodelle (DLLMs) haben das Potenzial, durch parallele Decodierung mehrerer Tokens eine schnelle Texterzeugung zu ermöglichen. In der Praxis wird ihre Inferenzeffizienz jedoch durch die Notwendigkeit vieler Verfeinerungsschritte eingeschränkt, während eine aggressive Reduzierung der Schrittzahl zu einer erheblichen Verschlechterung der Generierungsqualität führt. Um dies zu mildern, schlagen wir einen Trajektorien-Selbstdistillationsrahmen vor, der die Few-Step-Decodierung durch Destillation der eigenen generativen Trajektorien des Modells verbessert. Wir integrieren Direct Discriminative Optimization (DDO), ein Reverse-KL-Ziel, das eine modus-suchende Destillation fördert und den Studenten dazu anregt, sich auf hochwahrscheinliche Teacher-Modi zu konzentrieren. In Benchmarks übertrifft unser Ansatz durchgängig starke Few-Step-Baselines und Standardtraining unter strengen Schrittbudgets. Obwohl die Decodierung mit voller Schrittzahl überlegen bleibt, verringern wir die Lücke erheblich und schaffen so eine solide Grundlage für praktisch einsetzbare Few-Step-DLLMs. Der Quellcode ist verfügbar unter https://github.com/Tyrion58/T3D.
English
Diffusion large language models (DLLMs) have the potential to enable fast text generation by decoding multiple tokens in parallel. However, in practice, their inference efficiency is constrained by the need for many refinement steps, while aggressively reducing the number of steps leads to a substantial degradation in generation quality. To alleviate this, we propose a trajectory self-distillation framework that improves few-step decoding by distilling the model's own generative trajectories. We incorporate Direct Discriminative Optimization (DDO), a reverse-KL objective that promotes mode-seeking distillation and encourages the student to concentrate on high-probability teacher modes. Across benchmarks, our approach consistently outperforms strong few-step baselines and standard training under tight step budgets. Although full-step decoding remains superior, we substantially narrow the gap, establishing a strong foundation towards practical few-step DLLMs. The source code is available at https://github.com/Tyrion58/T3D.
PDF61February 14, 2026