ChatPaper.aiChatPaper

Geração de Texto com Prefiguração Codificada e Resolução

Codified Foreshadowing-Payoff Text Generation

January 11, 2026
Autores: Longfei Yun, Kun Zhou, Yupeng Hou, Letian Peng, Jingbo Shang
cs.AI

Resumo

A premonição e o seu desfecho são dispositivos narrativos ubíquos através dos quais os autores introduzem compromissos no início de uma história e os resolvem por meio de resultados concretos e observáveis. No entanto, apesar dos avanços na geração de histórias, os grandes modelos de linguagem (LLMs) frequentemente falham em estabelecer essas dependências narrativas de longo alcance, deixando muitas vezes "armas de Tchékhov" sem serem disparadas, mesmo quando o contexto necessário está presente. As avaliações existentes ignoram em grande parte esta falha estrutural, focando-se na coerência superficial em vez do cumprimento lógico das preparações narrativas. Neste artigo, introduzimos a Geração Codificada de Premonição-Desfecho (CFPG), uma estrutura inovadora que reformula a qualidade narrativa através da lente da realização do desfecho. Reconhecendo que os LLMs têm dificuldade em compreender intuitivamente o "mecanismo de ativação" de um evento prenunciado, a CFPG transforma a continuidade narrativa num conjunto de predicados causais executáveis. Ao extrair e codificar triplas Premonição-Ativação-Desfecho do *corpus* BookSum, fornecemos uma supervisão estruturada que garante que os compromissos prenunciados não são apenas mencionados, mas também cumpridos temporal e logicamente. Experiências demonstram que a CFPG supera significativamente as *baselines* padrão de *prompting* em precisão de desfecho e alinhamento narrativo. As nossas conclusões sugerem que codificar explicitamente a mecânica narrativa é essencial para evoluir os LLMs da fluência superficial para uma competência narrativa genuína.
English
Foreshadowing and payoff are ubiquitous narrative devices through which authors introduce commitments early in a story and resolve them through concrete, observable outcomes. However, despite advances in story generation, large language models (LLMs) frequently fail to bridge these long-range narrative dependencies, often leaving "Chekhov's guns" unfired even when the necessary context is present. Existing evaluations largely overlook this structural failure, focusing on surface-level coherence rather than the logical fulfillment of narrative setups. In this paper, we introduce Codified Foreshadowing-Payoff Generation (CFPG), a novel framework that reframes narrative quality through the lens of payoff realization. Recognizing that LLMs struggle to intuitively grasp the "triggering mechanism" of a foreshadowed event, CFPG transforms narrative continuity into a set of executable causal predicates. By mining and encoding Foreshadow-Trigger-Payoff triples from the BookSum corpus, we provide structured supervision that ensures foreshadowed commitments are not only mentioned but also temporally and logically fulfilled. Experiments demonstrate that CFPG significantly outperforms standard prompting baselines in payoff accuracy and narrative alignment. Our findings suggest that explicitly codifying narrative mechanics is essential for moving LLMs from surface-level fluency to genuine narrative competence.
PDF33March 16, 2026