Настройка предпочтений с помощью обратной связи человека по задачам языка, речи и зрения: обзор.
Preference Tuning with Human Feedback on Language, Speech, and Vision Tasks: A Survey
September 17, 2024
Авторы: Genta Indra Winata, Hanyang Zhao, Anirban Das, Wenpin Tang, David D. Yao, Shi-Xiong Zhang, Sambit Sahu
cs.AI
Аннотация
Настройка предпочтений является ключевым процессом для согласования глубоких генеративных моделей с человеческими предпочтениями. Этот обзор предлагает подробное изучение последних достижений в области настройки предпочтений и интеграции обратной связи от людей. Статья разделена на три основных раздела: 1) введение и предварительные сведения: введение в рамки обучения с подкреплением, задачи настройки предпочтений, модели и наборы данных в различных модальностях: язык, речь и зрение, а также различные подходы к политике, 2) детальное рассмотрение каждого подхода к настройке предпочтений: подробный анализ методов, используемых в настройке предпочтений, и 3) приложения, обсуждение и перспективы: исследование применения настройки предпочтений в последующих задачах, включая методы оценки для различных модальностей, а также перспективы будущих исследований. Наша цель - представить последние методологии в области настройки предпочтений и выравнивания моделей, способствуя пониманию этой области исследования для исследователей и практиков. Мы надеемся стимулировать дальнейшее вовлечение и инновации в этой области.
English
Preference tuning is a crucial process for aligning deep generative models
with human preferences. This survey offers a thorough overview of recent
advancements in preference tuning and the integration of human feedback. The
paper is organized into three main sections: 1) introduction and preliminaries:
an introduction to reinforcement learning frameworks, preference tuning tasks,
models, and datasets across various modalities: language, speech, and vision,
as well as different policy approaches, 2) in-depth examination of each
preference tuning approach: a detailed analysis of the methods used in
preference tuning, and 3) applications, discussion, and future directions: an
exploration of the applications of preference tuning in downstream tasks,
including evaluation methods for different modalities, and an outlook on future
research directions. Our objective is to present the latest methodologies in
preference tuning and model alignment, enhancing the understanding of this
field for researchers and practitioners. We hope to encourage further
engagement and innovation in this area.Summary
AI-Generated Summary