Generación de Texto con Presagio Codificado y Resolución
Codified Foreshadowing-Payoff Text Generation
January 11, 2026
Autores: Longfei Yun, Kun Zhou, Yupeng Hou, Letian Peng, Jingbo Shang
cs.AI
Resumen
La prefiguración y su resolución son dispositivos narrativos omnipresentes mediante los cuales los autores introducen compromisos narrativos tempranamente y los resuelven a través de desenlaces concretos y observables. Sin embargo, a pesar de los avances en generación de historias, los modelos de lenguaje de gran escala (LLMs, por sus siglas en inglés) frecuentemente fallan en conectar estas dependencias narrativas de largo alcance, dejando a menudo "fusiles de Chéjov" sin disparar, incluso cuando el contexto necesario está presente. Las evaluaciones existentes pasan por alto en gran medida este fallo estructural, centrándose en la coherencia superficial en lugar del cumplimiento lógico de las preparaciones narrativas. En este artículo, presentamos la Generación Codificada de Prefiguración-Desenlace (CFPG, por sus siglas en inglés), un marco novedoso que replantea la calidad narrativa a través del lente de la realización del desenlace. Reconociendo que los LLMs tienen dificultades para captar intuitivamente el "mecanismo de activación" de un evento prefigurado, CFPG transforma la continuidad narrativa en un conjunto de predicados causales ejecutables. Mediante la extracción y codificación de tríadas Prefiguración-Desencadenante-Desenlace del corpus BookSum, proporcionamos una supervisión estructurada que garantiza que los compromisos prefigurados no solo sean mencionados, sino también cumplidos temporal y lógicamente. Los experimentos demuestran que CFPG supera significativamente a los métodos base de prompting estándar en precisión del desenlace y alineación narrativa. Nuestros hallazgos sugieren que codificar explícitamente la mecánica narrativa es esencial para llevar a los LLMs de la fluidez superficial a una competencia narrativa genuina.
English
Foreshadowing and payoff are ubiquitous narrative devices through which authors introduce commitments early in a story and resolve them through concrete, observable outcomes. However, despite advances in story generation, large language models (LLMs) frequently fail to bridge these long-range narrative dependencies, often leaving "Chekhov's guns" unfired even when the necessary context is present. Existing evaluations largely overlook this structural failure, focusing on surface-level coherence rather than the logical fulfillment of narrative setups. In this paper, we introduce Codified Foreshadowing-Payoff Generation (CFPG), a novel framework that reframes narrative quality through the lens of payoff realization. Recognizing that LLMs struggle to intuitively grasp the "triggering mechanism" of a foreshadowed event, CFPG transforms narrative continuity into a set of executable causal predicates. By mining and encoding Foreshadow-Trigger-Payoff triples from the BookSum corpus, we provide structured supervision that ensures foreshadowed commitments are not only mentioned but also temporally and logically fulfilled. Experiments demonstrate that CFPG significantly outperforms standard prompting baselines in payoff accuracy and narrative alignment. Our findings suggest that explicitly codifying narrative mechanics is essential for moving LLMs from surface-level fluency to genuine narrative competence.