Одна из распространенных ошибок выравнивания языковых моделей на основе отступов: запутанность градиентов.
A Common Pitfall of Margin-based Language Model Alignment: Gradient Entanglement
October 17, 2024
Авторы: Hui Yuan, Yifan Zeng, Yue Wu, Huazheng Wang, Mengdi Wang, Liu Leqi
cs.AI
Аннотация
Обучение с подкреплением на основе обратной связи от человека (RLHF) стало преобладающим подходом к выравниванию языковых моделей (LM). В центре RLHF лежит потеря на основе отступа для оптимизации предпочтений, определяя идеальное поведение LM только по разнице между предпочтительными и непредпочтительными ответами. В данной статье мы выявляем распространенное затруднение методов на основе отступа - недостаточную спецификацию идеального поведения LM на предпочтительных и непредпочтительных ответах индивидуально, что приводит к двум непреднамеренным последствиям при увеличении отступа: (1) Вероятность непредпочтительных (например, небезопасных) ответов может увеличиться, что приводит к потенциальным сбоям в выравнивании безопасности. (2) Вероятность предпочтительных ответов может уменьшиться, даже если эти ответы идеальны. Мы разъясняем причины этих проблематичных поведений: потери на основе отступа связывают изменение вероятности предпочтительного ответа с градиентом непредпочтительного, и наоборот, часто препятствуя увеличению вероятности предпочтительного ответа при уменьшении вероятности непредпочтительного, что приводит к синхронному увеличению или уменьшению обеих вероятностей. Мы называем это явление, присущее целям на основе отступа, градиентным запутыванием. Формально мы вывели условия для общих целей выравнивания на основе отступа, при которых градиентное запутывание становится проблемой: скалярное произведение градиентов логарифмических вероятностей предпочтительных и непредпочтительных ответов значительно больше индивидуальных норм градиентов. Мы теоретически исследуем, почему такие скалярные произведения могут быть большими при выравнивании языковых моделей, и эмпирически подтверждаем наши результаты. Эмпирические выводы нашей концепции простираются до объяснения важных различий в динамике обучения различных алгоритмов оптимизации предпочтений и предложения потенциальных конструкций алгоритмов для смягчения проблемы недостаточной спецификации методов на основе отступа и тем самым улучшения выравнивания языковых моделей.
English
Reinforcement Learning from Human Feedback (RLHF) has become the predominant
approach for language model (LM) alignment. At its core, RLHF uses a
margin-based loss for preference optimization, specifying ideal LM behavior
only by the difference between preferred and dispreferred responses. In this
paper, we identify a common pitfall of margin-based methods -- the
under-specification of ideal LM behavior on preferred and dispreferred
responses individually, which leads to two unintended consequences as the
margin increases: (1) The probability of dispreferred (e.g., unsafe) responses
may increase, resulting in potential safety alignment failures. (2) The
probability of preferred responses may decrease, even when those responses are
ideal. We demystify the reasons behind these problematic behaviors:
margin-based losses couple the change in the preferred probability to the
gradient of the dispreferred one, and vice versa, often preventing the
preferred probability from increasing while the dispreferred one decreases, and
thus causing a synchronized increase or decrease in both probabilities. We term
this effect, inherent in margin-based objectives, gradient entanglement.
Formally, we derive conditions for general margin-based alignment objectives
under which gradient entanglement becomes concerning: the inner product of the
gradients of preferred and dispreferred log-probabilities is large relative to
the individual gradient norms. We theoretically investigate why such inner
products can be large when aligning language models and empirically validate
our findings. Empirical implications of our framework extend to explaining
important differences in the training dynamics of various preference
optimization algorithms, and suggesting potential algorithm designs to mitigate
the under-specification issue of margin-based methods and thereby improving
language model alignment.Summary
AI-Generated Summary