ChatPaper.aiChatPaper

MixCE : Entraînement de modèles de langage autorégressifs en mélangeant les entropies croisées avant et arrière

MixCE: Training Autoregressive Language Models by Mixing Forward and Reverse Cross-Entropies

May 26, 2023
Auteurs: Shiyue Zhang, Shijie Wu, Ozan Irsoy, Steven Lu, Mohit Bansal, Mark Dredze, David Rosenberg
cs.AI

Résumé

Les modèles de langage autorégressifs sont entraînés en minimisant l'entropie croisée de la distribution du modèle Q par rapport à la distribution des données P — c'est-à-dire en minimisant l'entropie croisée directe, ce qui équivaut à l'estimation du maximum de vraisemblance (MLE). Nous avons observé que les modèles entraînés de cette manière peuvent "sur-généraliser", dans le sens où ils produisent du texte non conforme à celui généré par les humains. De plus, nous pensons que l'entropie croisée inverse, c'est-à-dire l'entropie croisée de P par rapport à Q, reflète mieux la manière dont un humain évaluerait le texte généré par un modèle. Par conséquent, nous proposons un apprentissage avec MixCE, un objectif qui combine les entropies croisées directe et inverse. Nous évaluons les modèles entraînés avec cet objectif sur des configurations de données synthétiques (où P est connue) et des données réelles, et montrons que les modèles résultants produisent un texte de meilleure qualité sans nécessiter de stratégies de décodage complexes. Notre code et nos modèles sont disponibles publiquement à l'adresse https://github.com/bloomberg/mixce-acl2023.
English
Autoregressive language models are trained by minimizing the cross-entropy of the model distribution Q relative to the data distribution P -- that is, minimizing the forward cross-entropy, which is equivalent to maximum likelihood estimation (MLE). We have observed that models trained in this way may "over-generalize", in the sense that they produce non-human-like text. Moreover, we believe that reverse cross-entropy, i.e., the cross-entropy of P relative to Q, is a better reflection of how a human would evaluate text generated by a model. Hence, we propose learning with MixCE, an objective that mixes the forward and reverse cross-entropies. We evaluate models trained with this objective on synthetic data settings (where P is known) and real data, and show that the resulting models yield better generated text without complex decoding strategies. Our code and models are publicly available at https://github.com/bloomberg/mixce-acl2023
PDF20December 15, 2024