Desbloqueando a Geração de Texto Antecipatória: Uma Abordagem Restrita para Decodificação Fiel com Modelos de Linguagem de Grande Escala
Unlocking Anticipatory Text Generation: A Constrained Approach for Faithful Decoding with Large Language Models
December 11, 2023
Autores: Lifu Tu, Semih Yavuz, Jin Qu, Jiacheng Xu, Rui Meng, Caiming Xiong, Yingbo Zhou
cs.AI
Resumo
Modelos de Linguagem de Grande Escala (LLMs) demonstraram uma capacidade poderosa para geração de texto. No entanto, alcançar resultados ideais com um prompt ou instrução específica pode ser desafiador, especialmente para modelos de bilhões de parâmetros. Além disso, comportamentos indesejados, como toxicidade ou alucinações, podem se manifestar. Embora modelos muito maiores (por exemplo, ChatGPT) possam demonstrar força na mitigação desses problemas, ainda não há garantia de prevenção completa. Neste trabalho, propomos formalizar a geração de texto como um problema de geração com restrições futuras para minimizar comportamentos indesejados e garantir fidelidade às instruções. A estimativa de satisfação das restrições futuras, realizada usando LLMs, orienta o processo de geração de texto. Nossos extensos experimentos demonstram a eficácia da abordagem proposta em três tarefas distintas de geração de texto: geração com restrição de palavras-chave (Lin et al., 2020), redução de toxicidade (Gehman et al., 2020) e correção factual em questionamento e resposta (Gao et al., 2023).
English
Large Language Models (LLMs) have demonstrated a powerful ability for text
generation. However, achieving optimal results with a given prompt or
instruction can be challenging, especially for billion-sized models.
Additionally, undesired behaviors such as toxicity or hallucinations can
manifest. While much larger models (e.g., ChatGPT) may demonstrate strength in
mitigating these issues, there is still no guarantee of complete prevention. In
this work, we propose formalizing text generation as a future-constrained
generation problem to minimize undesirable behaviors and enforce faithfulness
to instructions. The estimation of future constraint satisfaction, accomplished
using LLMs, guides the text generation process. Our extensive experiments
demonstrate the effectiveness of the proposed approach across three distinct
text generation tasks: keyword-constrained generation (Lin et al., 2020),
toxicity reduction (Gehman et al., 2020), and factual correctness in
question-answering (Gao et al., 2023).