ChatPaper.aiChatPaper

Раскрытие потенциала предсказательного генерации текста: Ограниченный подход для достоверного декодирования с использованием крупных языковых моделей

Unlocking Anticipatory Text Generation: A Constrained Approach for Faithful Decoding with Large Language Models

December 11, 2023
Авторы: Lifu Tu, Semih Yavuz, Jin Qu, Jiacheng Xu, Rui Meng, Caiming Xiong, Yingbo Zhou
cs.AI

Аннотация

Крупные языковые модели (LLM) продемонстрировали мощные способности в генерации текста. Однако достижение оптимальных результатов с заданным запросом или инструкцией может быть сложной задачей, особенно для моделей с миллиардами параметров. Кроме того, могут проявляться нежелательные поведения, такие как токсичность или галлюцинации. Хотя более крупные модели (например, ChatGPT) могут демонстрировать лучшие результаты в смягчении этих проблем, полное предотвращение всё ещё не гарантировано. В данной работе мы предлагаем формализовать генерацию текста как задачу генерации с ограничениями на будущее, чтобы минимизировать нежелательные поведения и обеспечить соответствие инструкциям. Оценка удовлетворения будущих ограничений, выполняемая с использованием LLM, направляет процесс генерации текста. Наши обширные эксперименты демонстрируют эффективность предложенного подхода в трёх различных задачах генерации текста: генерация с ограничениями по ключевым словам (Lin et al., 2020), снижение токсичности (Gehman et al., 2020) и обеспечение фактической точности в вопросах и ответах (Gao et al., 2023).
English
Large Language Models (LLMs) have demonstrated a powerful ability for text generation. However, achieving optimal results with a given prompt or instruction can be challenging, especially for billion-sized models. Additionally, undesired behaviors such as toxicity or hallucinations can manifest. While much larger models (e.g., ChatGPT) may demonstrate strength in mitigating these issues, there is still no guarantee of complete prevention. In this work, we propose formalizing text generation as a future-constrained generation problem to minimize undesirable behaviors and enforce faithfulness to instructions. The estimation of future constraint satisfaction, accomplished using LLMs, guides the text generation process. Our extensive experiments demonstrate the effectiveness of the proposed approach across three distinct text generation tasks: keyword-constrained generation (Lin et al., 2020), toxicity reduction (Gehman et al., 2020), and factual correctness in question-answering (Gao et al., 2023).
PDF30December 15, 2024