Una comune insidia dell'allineamento dei modelli linguistici basati sul margine: Intreccio del Gradiente
A Common Pitfall of Margin-based Language Model Alignment: Gradient Entanglement
October 17, 2024
Autori: Hui Yuan, Yifan Zeng, Yue Wu, Huazheng Wang, Mengdi Wang, Liu Leqi
cs.AI
Abstract
L'apprendimento per rinforzo da feedback umano (RLHF) è diventato l'approccio predominante per l'allineamento dei modelli linguistici (LM). Al suo nucleo, RLHF utilizza una perdita basata sul margine per l'ottimizzazione delle preferenze, specificando il comportamento ideale del LM solo dalla differenza tra risposte preferite e non preferite. In questo articolo, identifichiamo una comune insidia dei metodi basati sul margine: la sotto-specificazione del comportamento ideale del LM sulle risposte preferite e non preferite individualmente, che porta a due conseguenze indesiderate all'aumentare del margine: (1) La probabilità di risposte non preferite (ad esempio, non sicure) può aumentare, portando a potenziali fallimenti nell'allineamento della sicurezza. (2) La probabilità di risposte preferite può diminuire, anche quando tali risposte sono ideali. Sveliamo le ragioni dietro questi comportamenti problematici: le perdite basate sul margine accoppiano il cambiamento della probabilità preferita al gradiente di quella non preferita, e viceversa, spesso impedendo alla probabilità preferita di aumentare mentre quella non preferita diminuisce, causando così un aumento o una diminuzione sincronizzata di entrambe le probabilità. Definiamo questo effetto, intrinseco agli obiettivi basati sul margine, come intreccio del gradiente. Formalmente, deriviamo condizioni per obiettivi di allineamento generici basati sul margine in cui l'intreccio del gradiente diventa preoccupante: il prodotto interno dei gradienti delle log-probabilità preferite e non preferite è grande rispetto alle norme dei gradienti individuali. Investigammo teoricamente perché tali prodotti interni possano essere grandi durante l'allineamento dei modelli linguistici e convalidiamo empiricamente le nostre scoperte. Le implicazioni empiriche del nostro quadro si estendono a spiegare importanti differenze nella dinamica di addestramento di vari algoritmi di ottimizzazione delle preferenze e a suggerire possibili progettazioni di algoritmi per mitigare il problema della sotto-specificazione dei metodi basati sul margine e migliorare così l'allineamento del modello linguistico.
English
Reinforcement Learning from Human Feedback (RLHF) has become the predominant
approach for language model (LM) alignment. At its core, RLHF uses a
margin-based loss for preference optimization, specifying ideal LM behavior
only by the difference between preferred and dispreferred responses. In this
paper, we identify a common pitfall of margin-based methods -- the
under-specification of ideal LM behavior on preferred and dispreferred
responses individually, which leads to two unintended consequences as the
margin increases: (1) The probability of dispreferred (e.g., unsafe) responses
may increase, resulting in potential safety alignment failures. (2) The
probability of preferred responses may decrease, even when those responses are
ideal. We demystify the reasons behind these problematic behaviors:
margin-based losses couple the change in the preferred probability to the
gradient of the dispreferred one, and vice versa, often preventing the
preferred probability from increasing while the dispreferred one decreases, and
thus causing a synchronized increase or decrease in both probabilities. We term
this effect, inherent in margin-based objectives, gradient entanglement.
Formally, we derive conditions for general margin-based alignment objectives
under which gradient entanglement becomes concerning: the inner product of the
gradients of preferred and dispreferred log-probabilities is large relative to
the individual gradient norms. We theoretically investigate why such inner
products can be large when aligning language models and empirically validate
our findings. Empirical implications of our framework extend to explaining
important differences in the training dynamics of various preference
optimization algorithms, and suggesting potential algorithm designs to mitigate
the under-specification issue of margin-based methods and thereby improving
language model alignment.Summary
AI-Generated Summary