К единому подходу к обучению предпочтений для больших языковых моделей: обзорTowards a Unified View of Preference Learning for Large Language Models:
A Survey
Большие языковые модели (LLM) обладают замечательными мощными возможностями. Одним из ключевых факторов достижения успеха является согласование вывода LLM с человеческими предпочтениями. Для эффективного улучшения производительности LLM часто требуется лишь небольшое количество данных. Несмотря на эффективность, исследования в этой области охватывают несколько доменов, и методы, используемые в них, относительно сложны для понимания. Взаимосвязи между различными методами остаются малоизученными, что ограничивает развитие согласования предпочтений. В свете этого мы разбиваем существующие популярные стратегии согласования на различные компоненты и предоставляем унифицированную структуру для изучения текущих стратегий согласования, тем самым устанавливая связи между ними. В данном обзоре мы декомпозируем все стратегии обучения предпочтениям на четыре компонента: модель, данные, обратная связь и алгоритм. Этот унифицированный взгляд предлагает глубокое понимание существующих алгоритмов согласования, а также открывает возможности для синергии сильных сторон различных стратегий. Кроме того, мы представляем подробные рабочие примеры распространенных существующих алгоритмов для облегчения полного понимания читателями. Наконец, на основе нашего унифицированного подхода мы исследуем вызовы и направления будущих исследований для согласования больших языковых моделей с человеческими предпочтениями.