ChatPaper.aiChatPaper

Desbloqueando la Generación de Texto Anticipatorio: Un Enfoque Restringido para la Decodificación Fiel con Modelos de Lenguaje a Gran Escala

Unlocking Anticipatory Text Generation: A Constrained Approach for Faithful Decoding with Large Language Models

December 11, 2023
Autores: Lifu Tu, Semih Yavuz, Jin Qu, Jiacheng Xu, Rui Meng, Caiming Xiong, Yingbo Zhou
cs.AI

Resumen

Los Modelos de Lenguaje de Gran Escala (LLMs, por sus siglas en inglés) han demostrado una poderosa capacidad para la generación de texto. Sin embargo, lograr resultados óptimos con una indicación o instrucción dada puede ser un desafío, especialmente en modelos de miles de millones de parámetros. Además, pueden manifestarse comportamientos no deseados, como toxicidad o alucinaciones. Aunque modelos mucho más grandes (por ejemplo, ChatGPT) pueden mostrar fortalezas para mitigar estos problemas, aún no existe una garantía de prevención completa. En este trabajo, proponemos formalizar la generación de texto como un problema de generación con restricciones futuras para minimizar comportamientos indeseables y asegurar la fidelidad a las instrucciones. La estimación del cumplimiento de las restricciones futuras, realizada utilizando LLMs, guía el proceso de generación de texto. Nuestros extensos experimentos demuestran la efectividad del enfoque propuesto en tres tareas distintas de generación de texto: generación con restricciones de palabras clave (Lin et al., 2020), reducción de toxicidad (Gehman et al., 2020) y corrección factual en tareas de respuesta a preguntas (Gao et al., 2023).
English
Large Language Models (LLMs) have demonstrated a powerful ability for text generation. However, achieving optimal results with a given prompt or instruction can be challenging, especially for billion-sized models. Additionally, undesired behaviors such as toxicity or hallucinations can manifest. While much larger models (e.g., ChatGPT) may demonstrate strength in mitigating these issues, there is still no guarantee of complete prevention. In this work, we propose formalizing text generation as a future-constrained generation problem to minimize undesirable behaviors and enforce faithfulness to instructions. The estimation of future constraint satisfaction, accomplished using LLMs, guides the text generation process. Our extensive experiments demonstrate the effectiveness of the proposed approach across three distinct text generation tasks: keyword-constrained generation (Lin et al., 2020), toxicity reduction (Gehman et al., 2020), and factual correctness in question-answering (Gao et al., 2023).
PDF30December 15, 2024