コード化された伏線と回収のテキスト生成
Codified Foreshadowing-Payoff Text Generation
January 11, 2026
著者: Longfei Yun, Kun Zhou, Yupeng Hou, Letian Peng, Jingbo Shang
cs.AI
要旨
伏線と回収は普遍的な物語技法であり、作者が物語の早い段階で約束事を提示し、具体的で観測可能な結果によって解決する手法である。しかし、ストーリー生成技術が進歩しているにもかかわらず、大規模言語モデル(LLM)は、このような長距離の物語的依存関係を結びつけることに頻繁に失敗し、必要な文脈が存在する場合でも「チェーホフの銃」を撃たないままにすることが多い。既存の評価は、この構造的な失敗を見過ごすことが多く、物語の設定の論理的な履行ではなく、表面的な一貫性に焦点を当てている。本論文では、回収の実現という観点から物語の質を再定義する新しいフレームワークである、符号化された伏線-回収生成(CFPG)を提案する。LLMが伏線として張られた事象の「引き金メカニズム」を直感的に理解するのに苦労することを認識し、CFPGは物語の連続性を実行可能な因果述語の集合へと変換する。BookSumコーパスから伏線-引き金-回収の三つ組を抽出して符号化することにより、伏線として張られた約束事が言及されるだけでなく、時間的・論理的に履行されることを保証する構造化された監督を提供する。実験により、CFPGが回収の正確さと物語の整合性において、標準的なプロンプティング手法を大幅に上回ることを実証する。我々の知見は、物語のメカニズムを明示的に符号化することが、LLMを表面的な流暢さから真の物語能力へと移行させるために不可欠であることを示唆している。
English
Foreshadowing and payoff are ubiquitous narrative devices through which authors introduce commitments early in a story and resolve them through concrete, observable outcomes. However, despite advances in story generation, large language models (LLMs) frequently fail to bridge these long-range narrative dependencies, often leaving "Chekhov's guns" unfired even when the necessary context is present. Existing evaluations largely overlook this structural failure, focusing on surface-level coherence rather than the logical fulfillment of narrative setups. In this paper, we introduce Codified Foreshadowing-Payoff Generation (CFPG), a novel framework that reframes narrative quality through the lens of payoff realization. Recognizing that LLMs struggle to intuitively grasp the "triggering mechanism" of a foreshadowed event, CFPG transforms narrative continuity into a set of executable causal predicates. By mining and encoding Foreshadow-Trigger-Payoff triples from the BookSum corpus, we provide structured supervision that ensures foreshadowed commitments are not only mentioned but also temporally and logically fulfilled. Experiments demonstrate that CFPG significantly outperforms standard prompting baselines in payoff accuracy and narrative alignment. Our findings suggest that explicitly codifying narrative mechanics is essential for moving LLMs from surface-level fluency to genuine narrative competence.