Rumo a uma Visão Unificada da Aprendizagem de Preferências para Modelos de Linguagem de Grande Escala: Uma PesquisaTowards a Unified View of Preference Learning for Large Language Models:
A Survey
Os Modelos de Linguagem de Grande Escala (LLMs) exibem capacidades notavelmente poderosas. Um dos fatores cruciais para alcançar o sucesso é alinhar a saída do LLM com as preferências humanas. Esse processo de alinhamento muitas vezes requer apenas uma pequena quantidade de dados para aprimorar eficientemente o desempenho do LLM. Embora eficaz, a pesquisa nessa área abrange vários domínios e os métodos envolvidos são relativamente complexos de entender. As relações entre diferentes métodos têm sido pouco exploradas, limitando o desenvolvimento do alinhamento de preferências. Diante disso, desmembramos as estratégias populares de alinhamento existentes em diferentes componentes e fornecemos um framework unificado para estudar as estratégias de alinhamento atuais, estabelecendo assim conexões entre elas. Nesta pesquisa, decomponemos todas as estratégias de aprendizado de preferências em quatro componentes: modelo, dados, feedback e algoritmo. Essa visão unificada oferece uma compreensão aprofundada dos algoritmos de alinhamento existentes e também abre possibilidades para sinergizar os pontos fortes de diferentes estratégias. Além disso, apresentamos exemplos de trabalho detalhados de algoritmos existentes prevalentes para facilitar a compreensão abrangente dos leitores. Por fim, com base em nossa perspectiva unificada, exploramos os desafios e as direções futuras de pesquisa para alinhar os grandes modelos de linguagem com as preferências humanas.