Ajuste de Preferencias con Retroalimentación Humana en Tareas de Lenguaje, Habla y Visión: Una Encuesta
Preference Tuning with Human Feedback on Language, Speech, and Vision Tasks: A Survey
September 17, 2024
Autores: Genta Indra Winata, Hanyang Zhao, Anirban Das, Wenpin Tang, David D. Yao, Shi-Xiong Zhang, Sambit Sahu
cs.AI
Resumen
El ajuste de preferencias es un proceso crucial para alinear los modelos generativos profundos con las preferencias humanas. Esta encuesta ofrece una visión general exhaustiva de los avances recientes en el ajuste de preferencias y la integración de la retroalimentación humana. El documento está organizado en tres secciones principales: 1) introducción y preliminares: una introducción a los marcos de aprendizaje por refuerzo, tareas de ajuste de preferencias, modelos y conjuntos de datos en diversas modalidades: lenguaje, habla y visión, así como diferentes enfoques de políticas, 2) examen detallado de cada enfoque de ajuste de preferencias: un análisis detallado de los métodos utilizados en el ajuste de preferencias, y 3) aplicaciones, discusión y futuras direcciones: una exploración de las aplicaciones del ajuste de preferencias en tareas posteriores, incluidos métodos de evaluación para diferentes modalidades, y una perspectiva sobre las futuras direcciones de investigación. Nuestro objetivo es presentar las últimas metodologías en ajuste de preferencias y alineación de modelos, mejorando la comprensión de este campo para investigadores y profesionales. Esperamos fomentar un mayor compromiso e innovación en esta área.
English
Preference tuning is a crucial process for aligning deep generative models
with human preferences. This survey offers a thorough overview of recent
advancements in preference tuning and the integration of human feedback. The
paper is organized into three main sections: 1) introduction and preliminaries:
an introduction to reinforcement learning frameworks, preference tuning tasks,
models, and datasets across various modalities: language, speech, and vision,
as well as different policy approaches, 2) in-depth examination of each
preference tuning approach: a detailed analysis of the methods used in
preference tuning, and 3) applications, discussion, and future directions: an
exploration of the applications of preference tuning in downstream tasks,
including evaluation methods for different modalities, and an outlook on future
research directions. Our objective is to present the latest methodologies in
preference tuning and model alignment, enhancing the understanding of this
field for researchers and practitioners. We hope to encourage further
engagement and innovation in this area.Summary
AI-Generated Summary