Generazione di Testi con Prefigurazione Codificata e Sviluppo
Codified Foreshadowing-Payoff Text Generation
January 11, 2026
Autori: Longfei Yun, Kun Zhou, Yupeng Hou, Letian Peng, Jingbo Shang
cs.AI
Abstract
La prefigurazione e la risoluzione sono dispositivi narrativi onnipresenti attraverso i quali gli autori introducono degli impegni all'inizio di una storia e li risolvono mediante esiti concreti e osservabili. Tuttavia, nonostante i progressi nella generazione di storie, i grandi modelli linguistici (LLM) spesso non riescono a colmare queste dipendenze narrative a lungo raggio, lasciando frequentemente "i fucili di Čechov" inesplosi anche quando il contesto necessario è presente. Le valutazioni esistenti trascurano in larga misura questo fallimento strutturale, concentrandosi sulla coerenza di superficie piuttosto che sul soddisfacimento logico delle premesse narrative. In questo articolo, introduciamo la Generazione Codificata di Prefigurazione-Risoluzione (CFPG), un nuovo framework che riformula la qualità narrativa attraverso la lente della realizzazione della risoluzione. Riconoscendo che gli LLM faticano a cogliere intuitivamente il "meccanismo di innesco" di un evento prefigurato, il CFPG trasforma la continuità narrativa in un insieme di predicati causali eseguibili. Estraendo e codificando triple Prefigurazione-Innesco-Risoluzione dal corpus BookSum, forniamo una supervisione strutturata che garantisce che gli impegni prefigurati non siano solo menzionati, ma anche soddisfatti temporalmente e logicamente. Gli esperimenti dimostrano che il CFPG supera significativamente i baseline di prompting standard in termini di accuratezza della risoluzione e allineamento narrativo. I nostri risultati suggeriscono che codificare esplicitamente le meccaniche narrative sia essenziale per far evolvere gli LLM dalla fluidità di superficie a una competenza narrativa genuina.
English
Foreshadowing and payoff are ubiquitous narrative devices through which authors introduce commitments early in a story and resolve them through concrete, observable outcomes. However, despite advances in story generation, large language models (LLMs) frequently fail to bridge these long-range narrative dependencies, often leaving "Chekhov's guns" unfired even when the necessary context is present. Existing evaluations largely overlook this structural failure, focusing on surface-level coherence rather than the logical fulfillment of narrative setups. In this paper, we introduce Codified Foreshadowing-Payoff Generation (CFPG), a novel framework that reframes narrative quality through the lens of payoff realization. Recognizing that LLMs struggle to intuitively grasp the "triggering mechanism" of a foreshadowed event, CFPG transforms narrative continuity into a set of executable causal predicates. By mining and encoding Foreshadow-Trigger-Payoff triples from the BookSum corpus, we provide structured supervision that ensures foreshadowed commitments are not only mentioned but also temporally and logically fulfilled. Experiments demonstrate that CFPG significantly outperforms standard prompting baselines in payoff accuracy and narrative alignment. Our findings suggest that explicitly codifying narrative mechanics is essential for moving LLMs from surface-level fluency to genuine narrative competence.