ChatPaper.aiChatPaper

Information Différentielle : Une Perspective Informationnelle sur l'Optimisation des Préférences

Differential Information: An Information-Theoretic Perspective on Preference Optimization

May 29, 2025
Auteurs: Yunjae Won, Hyunji Lee, Hyeonbin Hwang, Minjoon Seo
cs.AI

Résumé

L'Optimisation Directe des Préférences (Direct Preference Optimization, DPO) est devenue une technique standard pour aligner les modèles de langage avec les préférences humaines de manière supervisée. Malgré son succès empirique, la justification théorique derrière sa paramétrisation de récompense par rapport logarithmique reste incomplète. Dans ce travail, nous comblons cette lacune en utilisant la Distribution d'Information Différentielle (Differential Information Distribution, DID) : une distribution sur les séquences de tokens qui capture l'information acquise lors des mises à jour de la politique. Premièrement, nous montrons que lorsque les étiquettes de préférence encodent l'information différentielle nécessaire pour transformer une politique de référence en une politique cible, la récompense par rapport logarithmique dans DPO émerge comme la forme uniquement optimale pour apprendre la politique cible via l'optimisation des préférences. Ce résultat conduit naturellement à une expression en forme fermée pour la distribution d'échantillonnage optimale sur les réponses rejetées. Deuxièmement, nous constatons que la condition pour que les préférences encodent l'information différentielle est fondamentalement liée à une hypothèse implicite concernant les politiques ordonnées par marge logarithmique — un biais inductif largement utilisé dans l'optimisation des préférences mais précédemment non reconnu. Enfin, en analysant l'entropie de la DID, nous caractérisons comment l'apprentissage d'une information différentielle à faible entropie renforce la distribution de la politique, tandis qu'une information différentielle à haute entropie induit un effet de lissage, ce qui explique le phénomène de déplacement de la vraisemblance logarithmique. Nous validons nos résultats théoriques dans des expériences synthétiques et les étendons à des ensembles de données réels de suivi d'instructions. Nos résultats suggèrent que l'apprentissage d'une information différentielle à haute entropie est crucial pour le suivi général d'instructions, tandis que l'apprentissage d'une information différentielle à faible entropie bénéficie aux questions-réponses nécessitant des connaissances approfondies. Globalement, notre travail présente une perspective unificatrice sur l'objectif de DPO, la structure des données de préférence et les comportements de politique résultants à travers le prisme de l'information différentielle.
English
Direct Preference Optimization (DPO) has become a standard technique for aligning language models with human preferences in a supervised manner. Despite its empirical success, the theoretical justification behind its log-ratio reward parameterization remains incomplete. In this work, we address this gap by utilizing the Differential Information Distribution (DID): a distribution over token sequences that captures the information gained during policy updates. First, we show that when preference labels encode the differential information required to transform a reference policy into a target policy, the log-ratio reward in DPO emerges as the uniquely optimal form for learning the target policy via preference optimization. This result naturally yields a closed-form expression for the optimal sampling distribution over rejected responses. Second, we find that the condition for preferences to encode differential information is fundamentally linked to an implicit assumption regarding log-margin ordered policies-an inductive bias widely used in preference optimization yet previously unrecognized. Finally, by analyzing the entropy of the DID, we characterize how learning low-entropy differential information reinforces the policy distribution, while high-entropy differential information induces a smoothing effect, which explains the log-likelihood displacement phenomenon. We validate our theoretical findings in synthetic experiments and extend them to real-world instruction-following datasets. Our results suggest that learning high-entropy differential information is crucial for general instruction-following, while learning low-entropy differential information benefits knowledge-intensive question answering. Overall, our work presents a unifying perspective on the DPO objective, the structure of preference data, and resulting policy behaviors through the lens of differential information.

Summary

AI-Generated Summary

PDF32May 30, 2025