ChatPaper.aiChatPaper

Optimización Directa de Preferencias Utilizando Restricciones Escasas a Nivel de Características

Direct Preference Optimization Using Sparse Feature-Level Constraints

November 12, 2024
Autores: Qingyu Yin, Chak Tou Leong, Hongbo Zhang, Minjun Zhu, Hanqi Yan, Qiang Zhang, Yulan He, Wenjie Li, Jun Wang, Yue Zhang, Linyi Yang
cs.AI

Resumen

La alineación de grandes modelos de lenguaje (LLMs) con las preferencias humanas sigue siendo un desafío clave. Si bien técnicas posteriores al entrenamiento como el Aprendizaje por Refuerzo a partir de Retroalimentación Humana (RLHF) y la Optimización Directa de Preferencias (DPO) han logrado un éxito notable, a menudo introducen ineficiencias computacionales e inestabilidad en el entrenamiento. En este artículo, proponemos la Optimización de Preferencias a Nivel de Características (FPO, por sus siglas en inglés), un método novedoso diseñado para simplificar el proceso de alineación asegurando la estabilidad. FPO aprovecha Autoencoders Dispersos (SAEs) pre-entrenados e introduce restricciones a nivel de características, lo que permite una alineación eficiente y forzada por la dispersión. Nuestro enfoque logra eficiencia al utilizar características dispersas activadas en un autoencoder disperso bien entrenado y la calidad de la divergencia KL secuencial al utilizar la referencia offline a nivel de características. Los resultados experimentales en conjuntos de datos de referencia demuestran que FPO logra una mejora absoluta del 5.08% en la tasa de victorias con un costo computacional mucho menor en comparación con los baselines de vanguardia, lo que lo convierte en una solución prometedora para alineaciones eficientes y controlables de LLMs.
English
The alignment of large language models (LLMs) with human preferences remains a key challenge. While post-training techniques like Reinforcement Learning from Human Feedback (RLHF) and Direct Preference Optimization (DPO) have achieved notable success, they often introduce computational inefficiencies and training instability. In this paper, we propose Feature-level constrained Preference Optimization (FPO), a novel method designed to simplify the alignment process while ensuring stability. FPO leverages pre-trained Sparse Autoencoders (SAEs) and introduces feature-level constraints, allowing for efficient, sparsity-enforced alignment. Our approach enjoys efficiency by using sparse features activated in a well-trained sparse autoencoder and the quality of sequential KL divergence by using the feature-level offline reference. Experimental results on benchmark datasets demonstrate that FPO achieves a 5.08% absolute improvement in win rate with much lower computational cost compared to state-of-the-art baselines, making it a promising solution for efficient and controllable LLM alignments.

Summary

AI-Generated Summary

PDF163November 14, 2024