Het Ontgrendelen van Anticiperende Tekstgeneratie: Een Beperkte Aanpak voor Betrouwbare Decodering met Grote Taalmodellen
Unlocking Anticipatory Text Generation: A Constrained Approach for Faithful Decoding with Large Language Models
December 11, 2023
Auteurs: Lifu Tu, Semih Yavuz, Jin Qu, Jiacheng Xu, Rui Meng, Caiming Xiong, Yingbo Zhou
cs.AI
Samenvatting
Grote Taalmodellen (LLMs) hebben een krachtig vermogen getoond voor tekstgeneratie. Het bereiken van optimale resultaten met een gegeven prompt of instructie kan echter uitdagend zijn, vooral voor modellen van miljarden grootte. Daarnaast kunnen ongewenste gedragingen zoals toxiciteit of hallucinaties zich voordoen. Hoewel veel grotere modellen (bijvoorbeeld ChatGPT) sterke punten kunnen vertonen in het beperken van deze problemen, is er nog steeds geen garantie op volledige preventie. In dit werk stellen we voor om tekstgeneratie te formaliseren als een toekomstbeperkt generatieprobleem om ongewenste gedragingen te minimaliseren en trouw aan instructies te waarborgen. De schatting van toekomstige beperkingsvoldoening, uitgevoerd met behulp van LLMs, begeleidt het tekstgeneratieproces. Onze uitgebreide experimenten tonen de effectiviteit van de voorgestelde aanpak aan over drie verschillende tekstgeneratietaken: sleutelwoordbeperkte generatie (Lin et al., 2020), toxiciteitsreductie (Gehman et al., 2020), en feitelijke correctheid in vraag-antwoordtaken (Gao et al., 2023).
English
Large Language Models (LLMs) have demonstrated a powerful ability for text
generation. However, achieving optimal results with a given prompt or
instruction can be challenging, especially for billion-sized models.
Additionally, undesired behaviors such as toxicity or hallucinations can
manifest. While much larger models (e.g., ChatGPT) may demonstrate strength in
mitigating these issues, there is still no guarantee of complete prevention. In
this work, we propose formalizing text generation as a future-constrained
generation problem to minimize undesirable behaviors and enforce faithfulness
to instructions. The estimation of future constraint satisfaction, accomplished
using LLMs, guides the text generation process. Our extensive experiments
demonstrate the effectiveness of the proposed approach across three distinct
text generation tasks: keyword-constrained generation (Lin et al., 2020),
toxicity reduction (Gehman et al., 2020), and factual correctness in
question-answering (Gao et al., 2023).