Gecodificeerde Voorafschaduwing-Resultaat Tekstgeneratie
Codified Foreshadowing-Payoff Text Generation
January 11, 2026
Auteurs: Longfei Yun, Kun Zhou, Yupeng Hou, Letian Peng, Jingbo Shang
cs.AI
Samenvatting
Foreshadowing en payoff zijn alomtegenwoordige narratieve technieken waarbij auteurs aan het begin van een verhaal verwachtingen scheppen en deze later oplossen via concrete, observeerbare uitkomsten. Desondanks falen grote taalmmodellen (LLM's) vaak in het overbruggen van deze langeafstands-narratieve afhankelijkheden, zelfs wanneer de nodige context aanwezig is, waardoor "Tsjechovs geweren" onafgevuurd blijven. Bestaande evaluaties negeren grotendeels dit structurele falen en richten zich op oppervlakkige coherentie in plaats van de logische vervulling van narratieve opzetten. In dit artikel introduceren we Gecodificeerde Foreshadowing-Payoff Generatie (CFPG), een nieuw raamwerk dat narratieve kwaliteit herdefinieert door de lens van payoff-realizatie. Omdat LLM's moeite hebben om het "trigger-mechanisme" van een foreshadowed gebeurtenis intuïtief te begrijpen, transformeert CFPG narratieve continuïteit in een reeks uitvoerbare causale predicaten. Door Foreshadow-Trigger-Payoff triples te extraheren en coderen uit de BookSum-corpus, bieden we gestructureerde supervisie die garandeert dat foreshadowed verwachtingen niet alleen worden genoemd, maar ook temporeel en logisch worden ingelost. Experimenten tonen aan dat CFPG significant beter presteert dan standaard prompting-baselines in payoff-nauwkeurigheid en narratieve afstemming. Onze bevindingen suggereren dat het expliciet codificeren van narratieve mechanica essentieel is om LLM's van oppervlakkige vlotheid naar authentieke narratieve competentie te brengen.
English
Foreshadowing and payoff are ubiquitous narrative devices through which authors introduce commitments early in a story and resolve them through concrete, observable outcomes. However, despite advances in story generation, large language models (LLMs) frequently fail to bridge these long-range narrative dependencies, often leaving "Chekhov's guns" unfired even when the necessary context is present. Existing evaluations largely overlook this structural failure, focusing on surface-level coherence rather than the logical fulfillment of narrative setups. In this paper, we introduce Codified Foreshadowing-Payoff Generation (CFPG), a novel framework that reframes narrative quality through the lens of payoff realization. Recognizing that LLMs struggle to intuitively grasp the "triggering mechanism" of a foreshadowed event, CFPG transforms narrative continuity into a set of executable causal predicates. By mining and encoding Foreshadow-Trigger-Payoff triples from the BookSum corpus, we provide structured supervision that ensures foreshadowed commitments are not only mentioned but also temporally and logically fulfilled. Experiments demonstrate that CFPG significantly outperforms standard prompting baselines in payoff accuracy and narrative alignment. Our findings suggest that explicitly codifying narrative mechanics is essential for moving LLMs from surface-level fluency to genuine narrative competence.