ChatPaper.aiChatPaper

Génération de texte avec présage codifié et résolution

Codified Foreshadowing-Payoff Text Generation

January 11, 2026
papers.authors: Longfei Yun, Kun Zhou, Yupeng Hou, Letian Peng, Jingbo Shang
cs.AI

papers.abstract

La préfiguration et la résolution sont des procédés narratifs omniprésents par lesquels les auteurs introduisent des engagements tôt dans un récit et les résolvent par des conséquences concrètes et observables. Cependant, malgré les progrès en génération narrative, les grands modèles de langage (LLM) échouent fréquemment à établir ces dépendances narratives à long terme, laissant souvent des « fusils de Tchekhov » non déclenchés, même lorsque le contexte nécessaire est présent. Les évaluations existantes négligent largement cet échec structurel, se concentrant sur la cohérence superficielle plutôt que sur l'accomplissement logique des préparations narratives. Dans cet article, nous présentons la Génération de Préfiguration-Résolution Codifiée (CFPG), un nouveau cadre qui reformule la qualité narrative à travers le prisme de la réalisation des résolutions. Constatant que les LLM peinent à saisir intuitivement le « mécanisme de déclenchement » d'un événement préfiguré, le CFPG transforme la continuité narrative en un ensemble de prédicats causaux exécutables. En extrayant et en encodant des triplets Préfiguration-Déclencheur-Résolution du corpus BookSum, nous fournissons une supervision structurée qui garantit que les engagements préfigurés sont non seulement mentionnés, mais aussi temporellement et logiquement accomplis. Les expériences démontrent que le CFPG surpasse significativement les approches par prompt standard en précision des résolutions et en alignement narratif. Nos résultats suggèrent qu'une codification explicite des mécaniques narratives est essentielle pour faire évoluer les LLM d'une aisance superficielle vers une véritable compétence narrative.
English
Foreshadowing and payoff are ubiquitous narrative devices through which authors introduce commitments early in a story and resolve them through concrete, observable outcomes. However, despite advances in story generation, large language models (LLMs) frequently fail to bridge these long-range narrative dependencies, often leaving "Chekhov's guns" unfired even when the necessary context is present. Existing evaluations largely overlook this structural failure, focusing on surface-level coherence rather than the logical fulfillment of narrative setups. In this paper, we introduce Codified Foreshadowing-Payoff Generation (CFPG), a novel framework that reframes narrative quality through the lens of payoff realization. Recognizing that LLMs struggle to intuitively grasp the "triggering mechanism" of a foreshadowed event, CFPG transforms narrative continuity into a set of executable causal predicates. By mining and encoding Foreshadow-Trigger-Payoff triples from the BookSum corpus, we provide structured supervision that ensures foreshadowed commitments are not only mentioned but also temporally and logically fulfilled. Experiments demonstrate that CFPG significantly outperforms standard prompting baselines in payoff accuracy and narrative alignment. Our findings suggest that explicitly codifying narrative mechanics is essential for moving LLMs from surface-level fluency to genuine narrative competence.
PDF33February 7, 2026