Uma Armadilha Comum na Alinhamento de Modelos de Linguagem Baseados em Margem: Entrelaçamento de Gradiente
A Common Pitfall of Margin-based Language Model Alignment: Gradient Entanglement
October 17, 2024
Autores: Hui Yuan, Yifan Zeng, Yue Wu, Huazheng Wang, Mengdi Wang, Liu Leqi
cs.AI
Resumo
Aprendizado por Reforço a partir de Feedback Humano (ARFH) tornou-se a abordagem predominante para o alinhamento de modelos de linguagem (ML). Em sua essência, o ARFH utiliza uma perda baseada em margem para otimização de preferências, especificando o comportamento ideal do ML apenas pela diferença entre respostas preferidas e não preferidas. Neste artigo, identificamos uma armadilha comum dos métodos baseados em margem - a subespecificação do comportamento ideal do ML em respostas preferidas e não preferidas individualmente, o que leva a duas consequências não intencionais à medida que a margem aumenta: (1) A probabilidade de respostas não preferidas (por exemplo, inseguras) pode aumentar, resultando em possíveis falhas de alinhamento de segurança. (2) A probabilidade de respostas preferidas pode diminuir, mesmo quando essas respostas são ideais. Desmistificamos as razões por trás desses comportamentos problemáticos: as perdas baseadas em margem acoplam a mudança na probabilidade preferida ao gradiente da não preferida, e vice-versa, frequentemente impedindo que a probabilidade preferida aumente enquanto a não preferida diminui, causando assim um aumento ou diminuição sincronizados em ambas as probabilidades. Denominamos esse efeito, inerente aos objetivos baseados em margem, de entrelaçamento de gradientes. Formalmente, derivamos condições para objetivos gerais de alinhamento baseados em margem nos quais o entrelaçamento de gradientes se torna preocupante: o produto interno dos gradientes das log-probabilidades preferidas e não preferidas é grande em relação às normas individuais dos gradientes. Investigamos teoricamente por que tais produtos internos podem ser grandes ao alinhar modelos de linguagem e validamos empiricamente nossas descobertas. As implicações empíricas de nosso framework se estendem a explicar diferenças importantes na dinâmica de treinamento de vários algoritmos de otimização de preferências e sugerir possíveis designs de algoritmos para mitigar o problema de subespecificação dos métodos baseados em margem e, assim, melhorar o alinhamento de modelos de linguagem.
English
Reinforcement Learning from Human Feedback (RLHF) has become the predominant
approach for language model (LM) alignment. At its core, RLHF uses a
margin-based loss for preference optimization, specifying ideal LM behavior
only by the difference between preferred and dispreferred responses. In this
paper, we identify a common pitfall of margin-based methods -- the
under-specification of ideal LM behavior on preferred and dispreferred
responses individually, which leads to two unintended consequences as the
margin increases: (1) The probability of dispreferred (e.g., unsafe) responses
may increase, resulting in potential safety alignment failures. (2) The
probability of preferred responses may decrease, even when those responses are
ideal. We demystify the reasons behind these problematic behaviors:
margin-based losses couple the change in the preferred probability to the
gradient of the dispreferred one, and vice versa, often preventing the
preferred probability from increasing while the dispreferred one decreases, and
thus causing a synchronized increase or decrease in both probabilities. We term
this effect, inherent in margin-based objectives, gradient entanglement.
Formally, we derive conditions for general margin-based alignment objectives
under which gradient entanglement becomes concerning: the inner product of the
gradients of preferred and dispreferred log-probabilities is large relative to
the individual gradient norms. We theoretically investigate why such inner
products can be large when aligning language models and empirically validate
our findings. Empirical implications of our framework extend to explaining
important differences in the training dynamics of various preference
optimization algorithms, and suggesting potential algorithm designs to mitigate
the under-specification issue of margin-based methods and thereby improving
language model alignment.Summary
AI-Generated Summary