ChatPaper.aiChatPaper

Deliberar e depois Gerar: Um Framework Aprimorado de Prompting para Geração de Texto

Deliberate then Generate: Enhanced Prompting Framework for Text Generation

May 31, 2023
Autores: Bei Li, Rui Wang, Junliang Guo, Kaitao Song, Xu Tan, Hany Hassan, Arul Menezes, Tong Xiao, Jiang Bian, JingBo Zhu
cs.AI

Resumo

Modelos de linguagem de grande escala (LLMs) têm demonstrado sucesso notável em uma ampla gama de tarefas de geração de linguagem natural, onde projetos adequados de prompts têm um grande impacto. Embora os métodos de prompting existentes normalmente se restrinjam a fornecer informações corretas, neste artigo, incentivamos o modelo a deliberar propondo uma nova estrutura de prompting chamada Deliberar e depois Gerar (DTG), que consiste em instruções de detecção de erros e candidatos que podem conter erros. O DTG é uma técnica simples, porém eficaz, que pode ser aplicada a várias tarefas de geração de texto com modificações mínimas. Realizamos extensos experimentos em mais de 20 conjuntos de dados abrangendo 7 tarefas de geração de texto, incluindo sumarização, tradução, diálogo e mais. Demonstramos que o DTG supera consistentemente os métodos de prompting existentes e alcança desempenho de ponta em múltiplas tarefas de geração de texto. Também fornecemos análises detalhadas para revelar os mecanismos subjacentes do DTG, o que pode inspirar pesquisas futuras sobre prompting para LLMs.
English
Large language models (LLMs) have shown remarkable success across a wide range of natural language generation tasks, where proper prompt designs make great impacts. While existing prompting methods are normally restricted to providing correct information, in this paper, we encourage the model to deliberate by proposing a novel Deliberate then Generate (DTG) prompting framework, which consists of error detection instructions and candidates that may contain errors. DTG is a simple yet effective technique that can be applied to various text generation tasks with minimal modifications. We conduct extensive experiments on 20+ datasets across 7 text generation tasks, including summarization, translation, dialogue, and more. We show that DTG consistently outperforms existing prompting methods and achieves state-of-the-art performance on multiple text generation tasks. We also provide in-depth analyses to reveal the underlying mechanisms of DTG, which may inspire future research on prompting for LLMs.
PDF10December 15, 2024