ChatPaper.aiChatPaper

Idea2Story: 研究概念を完全な科学的物語へと変換する自動化パイプライン

Idea2Story: An Automated Pipeline for Transforming Research Concepts into Complete Scientific Narratives

January 28, 2026
著者: Tengyue Xu, Zhuoyang Qian, Gaoge Liu, Li Ling, Zhentao Zhang, Biao Wu, Shuo Zhang, Ke Lu, Wei Shi, Ziqi Wang, Zheng Feng, Yan Luo, Shu Xu, Yongjin Chen, Zhibo Feng, Zhuo Chen, Bruce Yuan, Harry Wang, Kris Chen
cs.AI

要旨

大規模言語モデル(LLM)ベースのエージェントによる自律的科学発見は近年著しい進歩を遂げ、エンドツーエンドの研究ワークフローを自動化する能力を示している。しかし、既存のシステムは実行時中心のパラダイムに依存することが多く、オンライン上で大量の科学文献を繰り返し読解・要約・推論している。このその場計算戦略は高い計算コストを招き、コンテキストウィンドウの制約を受け、脆い推論や虚構生成を引き起こしがちである。我々はIdea2Storyを提案する。これは事前計算駆動型の自律的科学発見フレームワークであり、文献理解をオンライン推論からオフライン知識構築へと転換する。Idea2Storyは査読付き論文とそのレビュー情報を継続的に収集し、核心的な方法論的単位を抽出、再利用可能な研究パターンを構成し、それらを構造化された方法論的知識グラフとして組織化する。実行時には、未規定のユーザー研究意図を確立された研究パラダイムに適合させ、オープンエンドな生成や試行錯誤ではなく、高品質な研究パターンの効率的な検索と再利用を可能にする。研究計画と実行を事前構築された知識グラフに基づかせることで、Idea2StoryはLLMのコンテキストウィンドウのボトルネックを緩和し、文献に対する繰り返しの実行時推論を大幅に削減する。定性分析と予備的実証研究により、Idea2Storyが首尾一貫し、方法論的に基礎付けられた新規な研究パターンを生成可能であり、エンドツーエンド設定で複数の高品質な研究デモを生成できることを示す。これらの結果は、オフライン知識構築が信頼性の高い自律的科学発見の実用的かつスケーラブルな基盤を提供することを示唆している。
English
Autonomous scientific discovery with large language model (LLM)-based agents has recently made substantial progress, demonstrating the ability to automate end-to-end research workflows. However, existing systems largely rely on runtime-centric execution paradigms, repeatedly reading, summarizing, and reasoning over large volumes of scientific literature online. This on-the-spot computation strategy incurs high computational cost, suffers from context window limitations, and often leads to brittle reasoning and hallucination. We propose Idea2Story, a pre-computation-driven framework for autonomous scientific discovery that shifts literature understanding from online reasoning to offline knowledge construction. Idea2Story continuously collects peer-reviewed papers together with their review feedback, extracts core methodological units, composes reusable research patterns, and organizes them into a structured methodological knowledge graph. At runtime, underspecified user research intents are aligned to established research paradigms, enabling efficient retrieval and reuse of high-quality research patterns instead of open-ended generation and trial-and-error. By grounding research planning and execution in a pre-built knowledge graph, Idea2Story alleviates the context window bottleneck of LLMs and substantially reduces repeated runtime reasoning over literature. We conduct qualitative analyses and preliminary empirical studies demonstrating that Idea2Story can generate coherent, methodologically grounded, and novel research patterns, and can produce several high-quality research demonstrations in an end-to-end setting. These results suggest that offline knowledge construction provides a practical and scalable foundation for reliable autonomous scientific discovery.
PDF1252January 31, 2026