ChatPaper.aiChatPaper

DeAL: Alinhamento no Tempo de Decodificação para Modelos de Linguagem de Grande Escala

DeAL: Decoding-time Alignment for Large Language Models

February 5, 2024
Autores: James Y. Huang, Sailik Sengupta, Daniele Bonadiman, Yi-an Lai, Arshit Gupta, Nikolaos Pappas, Saab Mansour, Katrin Kirchoff, Dan Roth
cs.AI

Resumo

Grandes Modelos de Linguagem (LLMs) são atualmente esperados para gerar conteúdo alinhado com as preferências humanas. O trabalho atual foca no alinhamento durante o treinamento do modelo, através de técnicas como Aprendizado por Reforço com Feedback Humano (RLHF). No entanto, não está claro se tais métodos são uma escolha eficaz para ensinar objetivos de alinhamento ao modelo. Primeiro, a incapacidade de incorporar múltiplas recompensas personalizadas e a dependência da visão do desenvolvedor do modelo sobre princípios universais e estáticos são limitações-chave. Segundo, as lacunas residuais no treinamento do modelo e a confiabilidade de tais abordagens também são questionáveis (por exemplo, suscetibilidade a jail-breaking mesmo após o treinamento de segurança). Para abordar esses problemas, propomos o DeAL, um framework que permite ao usuário personalizar funções de recompensa e possibilita o Alinhamento no Tempo de Decodificação de LLMs (DeAL). Em sua essência, vemos a decodificação como um processo de busca guiada por heurísticas e facilitamos o uso de uma ampla variedade de objetivos de alinhamento. Nossos experimentos com restrições programáticas, como restrições de palavras-chave e de comprimento (amplamente estudadas na era pré-LLM), e objetivos abstratos, como inofensividade e utilidade (propostos na era pós-LLM), mostram que podemos lidar com trade-offs refinados, melhorar a adesão aos objetivos de alinhamento e abordar lacunas residuais em LLMs. Por fim, embora o DeAL possa ser efetivamente combinado com técnicas de RLHF e prompting, sua generalidade torna a decodificação mais lenta, uma otimização que deixamos para trabalhos futuros.
English
Large Language Models (LLMs) are nowadays expected to generate content aligned with human preferences. Current work focuses on alignment at model training time, through techniques such as Reinforcement Learning with Human Feedback (RLHF). However, it is unclear if such methods are an effective choice to teach alignment objectives to the model. First, the inability to incorporate multiple, custom rewards and reliance on a model developer's view of universal and static principles are key limitations. Second, the residual gaps in model training and the reliability of such approaches are also questionable (e.g. susceptibility to jail-breaking even after safety training). To address these, we propose DeAL, a framework that allows the user to customize reward functions and enables Decoding-time Alignment of LLMs (DeAL). At its core, we view decoding as a heuristic-guided search process and facilitate the use of a wide variety of alignment objectives. Our experiments with programmatic constraints such as keyword and length constraints (studied widely in the pre-LLM era) and abstract objectives such as harmlessness and helpfulness (proposed in the post-LLM era) show that we can DeAL with fine-grained trade-offs, improve adherence to alignment objectives, and address residual gaps in LLMs. Lastly, while DeAL can be effectively paired with RLHF and prompting techniques, its generality makes decoding slower, an optimization we leave for future work.
PDF81February 8, 2026