ChatPaper.aiChatPaper

Sbloccare la Generazione Anticipatoria di Testo: Un Approccio Vincolato per il Decodificato Fedele con Modelli Linguistici di Grande Scala

Unlocking Anticipatory Text Generation: A Constrained Approach for Faithful Decoding with Large Language Models

December 11, 2023
Autori: Lifu Tu, Semih Yavuz, Jin Qu, Jiacheng Xu, Rui Meng, Caiming Xiong, Yingbo Zhou
cs.AI

Abstract

I Large Language Model (LLM) hanno dimostrato una potente capacità di generazione di testo. Tuttavia, ottenere risultati ottimali con un dato prompt o istruzione può essere impegnativo, specialmente per modelli di dimensioni nell'ordine dei miliardi. Inoltre, comportamenti indesiderati come tossicità o allucinazioni possono manifestarsi. Sebbene modelli molto più grandi (ad esempio, ChatGPT) possano dimostrare una maggiore capacità nel mitigare questi problemi, non vi è ancora alcuna garanzia di una prevenzione completa. In questo lavoro, proponiamo di formalizzare la generazione di testo come un problema di generazione vincolata al futuro, al fine di minimizzare i comportamenti indesiderati e garantire la fedeltà alle istruzioni. La stima della soddisfazione dei vincoli futuri, ottenuta utilizzando LLM, guida il processo di generazione del testo. I nostri ampi esperimenti dimostrano l'efficacia dell'approccio proposto in tre distinti compiti di generazione di testo: generazione vincolata da parole chiave (Lin et al., 2020), riduzione della tossicità (Gehman et al., 2020) e correttezza fattuale nel question-answering (Gao et al., 2023).
English
Large Language Models (LLMs) have demonstrated a powerful ability for text generation. However, achieving optimal results with a given prompt or instruction can be challenging, especially for billion-sized models. Additionally, undesired behaviors such as toxicity or hallucinations can manifest. While much larger models (e.g., ChatGPT) may demonstrate strength in mitigating these issues, there is still no guarantee of complete prevention. In this work, we propose formalizing text generation as a future-constrained generation problem to minimize undesirable behaviors and enforce faithfulness to instructions. The estimation of future constraint satisfaction, accomplished using LLMs, guides the text generation process. Our extensive experiments demonstrate the effectiveness of the proposed approach across three distinct text generation tasks: keyword-constrained generation (Lin et al., 2020), toxicity reduction (Gehman et al., 2020), and factual correctness in question-answering (Gao et al., 2023).
PDF30December 15, 2024