ChatPaper.aiChatPaper

Kodifizierte Vorausdeutung-Auflösung Textgenerierung

Codified Foreshadowing-Payoff Text Generation

January 11, 2026
papers.authors: Longfei Yun, Kun Zhou, Yupeng Hou, Letian Peng, Jingbo Shang
cs.AI

papers.abstract

Vorausdeutung und Einlösung sind allgegenwärtige narrative Mittel, mit denen Autoren bereits zu Beginn einer Geschichte gemachte Versprechungen einführen und diese durch konkrete, beobachtbare Ergebnisse auflösen. Trotz Fortschritten in der Geschichtengenerierung gelingt es großen Sprachmodellen (LLMs) jedoch häufig nicht, diese langreichweitigen narrativen Abhängigkeiten zu überbrücken; oft bleiben "Tschechows Gewehre" ungefeuert, selbst wenn der notwendige Kontext vorhanden ist. Bestehende Evaluationen übersehen weitgehend dieses strukturelle Versagen und konzentrieren sich eher auf oberflächliche Kohärenz als auf die logische Erfüllung narrativer Vorbereitungen. In diesem Artikel stellen wir Codified Foreshadowing-Payoff Generation (CFPG) vor, einen neuartigen Rahmen, der narrative Qualität durch die Linse der Einlösungsrealisierung neu definiert. Da LLMs bekanntermaßen Schwierigkeiten haben, den "Auslösemechanismus" eines vorausgedeuteten Ereignisses intuitiv zu erfassen, transformiert CFPG narrative Kontinuität in eine Reihe ausführbarer kausaler Prädikate. Durch die Extraktion und Kodierung von Vorausdeutungs-Auslöser-Einlösungs-Tripeln aus dem BookSum-Korpus bieten wir eine strukturierte Supervision, die sicherstellt, dass vorausgedeutete Versprechungen nicht nur erwähnt, sondern auch zeitlich und logisch erfüllt werden. Experimente zeigen, dass CFPG Standard-Prompting-Baselines in Bezug auf Einlösungsgenauigkeit und narrative Ausrichtung signifikant übertrifft. Unsere Ergebnisse legen nahe, dass die explizite Kodierung narrativer Mechanismen entscheidend ist, um LLMs von oberflächlicher Flüssigkeit zu echter narrativer Kompetenz zu bewegen.
English
Foreshadowing and payoff are ubiquitous narrative devices through which authors introduce commitments early in a story and resolve them through concrete, observable outcomes. However, despite advances in story generation, large language models (LLMs) frequently fail to bridge these long-range narrative dependencies, often leaving "Chekhov's guns" unfired even when the necessary context is present. Existing evaluations largely overlook this structural failure, focusing on surface-level coherence rather than the logical fulfillment of narrative setups. In this paper, we introduce Codified Foreshadowing-Payoff Generation (CFPG), a novel framework that reframes narrative quality through the lens of payoff realization. Recognizing that LLMs struggle to intuitively grasp the "triggering mechanism" of a foreshadowed event, CFPG transforms narrative continuity into a set of executable causal predicates. By mining and encoding Foreshadow-Trigger-Payoff triples from the BookSum corpus, we provide structured supervision that ensures foreshadowed commitments are not only mentioned but also temporally and logically fulfilled. Experiments demonstrate that CFPG significantly outperforms standard prompting baselines in payoff accuracy and narrative alignment. Our findings suggest that explicitly codifying narrative mechanics is essential for moving LLMs from surface-level fluency to genuine narrative competence.
PDF33January 31, 2026