ChatPaper.aiChatPaper

코드화된 복선-결말 텍스트 생성

Codified Foreshadowing-Payoff Text Generation

January 11, 2026
저자: Longfei Yun, Kun Zhou, Yupeng Hou, Letian Peng, Jingbo Shang
cs.AI

초록

복선과 결말은 작가가 이야기 초반에 약속을 제시하고 구체적이며 관찰 가능한 결과를 통해 해결하는 보편적인 서사 장치입니다. 그러나 스토리 생성 기술이 발전했음에도 불구하고, 대규모 언어 모델(LLM)은 이러한 장기간의 서사적 의존 관계를 연결하는 데 자주 실패하며, 필요한 맥락이 존재함에도 불구하고 종종 "체호프의 총"을 발사하지 않은 채 방치합니다. 기존 평가는 주로 표면적 일관성에 초점을 맞추고 서사적 설정의 논리적 이행을 간과함으로써 이러한 구조적 결함을 대체로 간과해 왔습니다. 본 논문에서는 결말 실현이라는 관점을 통해 서사적 품질을 재정의하는 새로운 프레임워크인 '체계화된 복선-결말 생성(CFPG)'을 소개합니다. LLM이 복선으로 제시된 사건의 "발동 메커니즘"을 직관적으로 파악하는 데 어려움을 겪는다는 점을 인지하고, CFPG는 서사적 연속성을 실행 가능한 인과 관계 술어 집합으로 변환합니다. BookSum 코퍼스에서 복선-발동-결말 삼중항을 추출 및 인코딩함으로써, 복선으로 제시된 약속이 단순히 언급되는 것을 넘어 시기적절하고 논리적으로 이행되도록 구조화된 지도를 제공합니다. 실험 결과, CFPG가 결말 정확도와 서사 정합성 측면에서 표준 프롬프팅 기준선을 크게 능가하는 것으로 나타났습니다. 우리의 연구 결과는 서사 메커니즘을 명시적으로 체계화하는 것이 LLM이 표면적 유창성에서 진정한 서사 능력으로 나아가는 데 필수적임을 시사합니다.
English
Foreshadowing and payoff are ubiquitous narrative devices through which authors introduce commitments early in a story and resolve them through concrete, observable outcomes. However, despite advances in story generation, large language models (LLMs) frequently fail to bridge these long-range narrative dependencies, often leaving "Chekhov's guns" unfired even when the necessary context is present. Existing evaluations largely overlook this structural failure, focusing on surface-level coherence rather than the logical fulfillment of narrative setups. In this paper, we introduce Codified Foreshadowing-Payoff Generation (CFPG), a novel framework that reframes narrative quality through the lens of payoff realization. Recognizing that LLMs struggle to intuitively grasp the "triggering mechanism" of a foreshadowed event, CFPG transforms narrative continuity into a set of executable causal predicates. By mining and encoding Foreshadow-Trigger-Payoff triples from the BookSum corpus, we provide structured supervision that ensures foreshadowed commitments are not only mentioned but also temporally and logically fulfilled. Experiments demonstrate that CFPG significantly outperforms standard prompting baselines in payoff accuracy and narrative alignment. Our findings suggest that explicitly codifying narrative mechanics is essential for moving LLMs from surface-level fluency to genuine narrative competence.
PDF33February 7, 2026