ChatPaper.aiChatPaper

Генерация текста с кодированным предзнаменованием и развязкой

Codified Foreshadowing-Payoff Text Generation

January 11, 2026
Авторы: Longfei Yun, Kun Zhou, Yupeng Hou, Letian Peng, Jingbo Shang
cs.AI

Аннотация

Предвестие и развязка являются повсеместными нарративными приемами, с помощью которых авторы вводят обязательства в начале истории и разрешают их через конкретные, наблюдаемые результаты. Однако, несмотря на прогресс в генерации историй, большие языковые модели (БЯМ) часто не справляются с установлением таких долгосрочных нарративных зависимостей, нередко оставляя «ружья Чехова» невыстрелившими даже при наличии необходимого контекста. Существующие методы оценки в значительной степени игнорируют эти структурные сбои, фокусируясь на поверхностной связности, а не на логическом выполнении нарративных завязок. В данной статье мы представляем Кодифицированную Генерацию Предвестий и Развязок (КГПР) — новую структуру, которая переосмысливает качество повествования через призму реализации развязки. Признавая, что БЯМ испытывают трудности с интуитивным пониманием «механизма запуска» предвосхищаемого события, КГПР преобразует нарративную непрерывность в набор исполняемых причинно-следственных предикатов. Путем извлечения и кодирования триад «Предвестие-Триггер-Развязка» из корпуса BookSum мы обеспечиваем структурированный контроль, гарантирующий, что предвосхищенные обязательства не только упоминаются, но и выполняются во временном и логическом отношении. Эксперименты показывают, что КГПР значительно превосходит стандартные методы промптинга по точности развязок и нарративной согласованности. Наши результаты свидетельствуют о том, что явное кодирование нарративных механизмов необходимо для перехода БЯМ от поверхностной беглости к подлинному нарративному мастерству.
English
Foreshadowing and payoff are ubiquitous narrative devices through which authors introduce commitments early in a story and resolve them through concrete, observable outcomes. However, despite advances in story generation, large language models (LLMs) frequently fail to bridge these long-range narrative dependencies, often leaving "Chekhov's guns" unfired even when the necessary context is present. Existing evaluations largely overlook this structural failure, focusing on surface-level coherence rather than the logical fulfillment of narrative setups. In this paper, we introduce Codified Foreshadowing-Payoff Generation (CFPG), a novel framework that reframes narrative quality through the lens of payoff realization. Recognizing that LLMs struggle to intuitively grasp the "triggering mechanism" of a foreshadowed event, CFPG transforms narrative continuity into a set of executable causal predicates. By mining and encoding Foreshadow-Trigger-Payoff triples from the BookSum corpus, we provide structured supervision that ensures foreshadowed commitments are not only mentioned but also temporally and logically fulfilled. Experiments demonstrate that CFPG significantly outperforms standard prompting baselines in payoff accuracy and narrative alignment. Our findings suggest that explicitly codifying narrative mechanics is essential for moving LLMs from surface-level fluency to genuine narrative competence.
PDF33February 7, 2026