Idea2Story: Eine automatisierte Pipeline zur Transformation von Forschungskonzepten in vollständige wissenschaftliche Narrative
Idea2Story: An Automated Pipeline for Transforming Research Concepts into Complete Scientific Narratives
January 28, 2026
papers.authors: Tengyue Xu, Zhuoyang Qian, Gaoge Liu, Li Ling, Zhentao Zhang, Biao Wu, Shuo Zhang, Ke Lu, Wei Shi, Ziqi Wang, Zheng Feng, Yan Luo, Shu Xu, Yongjin Chen, Zhibo Feng, Zhuo Chen, Bruce Yuan, Harry Wang, Kris Chen
cs.AI
papers.abstract
Autonome wissenschaftliche Entdeckung mit agentenbasierten großen Sprachmodellen (LLM) hat in letzter Zeit erhebliche Fortschritte gemacht und die Fähigkeit demonstriert, End-to-End-Forschungsworkflows zu automatisieren. Allerdings stützen sich bestehende Systeme weitgehend auf Laufzeit-zentrierte Ausführungsparadigmen, bei denen wiederholt umfangreiche wissenschaftliche Literatur online gelesen, zusammengefasst und darüber geschlussfolgert wird. Diese Strategie der Sofortberechnung verursacht hohe Rechenkosten, leidet unter den Einschränkungen des Kontextfensters und führt oft zu brüchiger Argumentation und Halluzinationen. Wir schlagen Idea2Story vor, ein vorberechnungsgesteuertes Framework für autonome wissenschaftliche Entdeckung, das das Literaturverständnis vom Online-Schlussfolgern auf die Offline-Wissenskonstruktion verlagert. Idea2Story sammelt kontinuierlich begutachtete Artikel zusammen mit deren Review-Feedback, extrahiert kerne methodische Einheiten, kombiniert wiederverwendbare Forschungsmuster und organisiert sie in einem strukturierten methodischen Wissensgraphen. Zur Laufzeit werden unspezifische Forschungsabsichten des Nutzers mit etablierten Forschungsparadigmen abgeglichen, was eine effiziente Abfrage und Wiederverwendung hochwertiger Forschungsmuster anstelle von offener Generierung und Trial-and-Error ermöglicht. Indem Forschungsplanung und -ausführung auf einem vorab erstellten Wissensgraphen basieren, mildert Idea2Story den Kontextfenster-Engpass von LLMs und reduziert wiederholtes Laufzeit-Schlussfolgern über Literatur erheblich. Wir führen qualitative Analysen und vorläufige empirische Studien durch, die zeigen, dass Idea2Story kohärente, methodisch fundierte und neuartige Forschungsmuster generieren und mehrere hochwertige Forschungsdemonstrationen in einer End-to-End-Umgebung produzieren kann. Diese Ergebnisse deuten darauf hin, dass Offline-Wissenskonstruktion eine praktische und skalierbare Grundlage für zuverlässige autonome wissenschaftliche Entdeckung bietet.
English
Autonomous scientific discovery with large language model (LLM)-based agents has recently made substantial progress, demonstrating the ability to automate end-to-end research workflows. However, existing systems largely rely on runtime-centric execution paradigms, repeatedly reading, summarizing, and reasoning over large volumes of scientific literature online. This on-the-spot computation strategy incurs high computational cost, suffers from context window limitations, and often leads to brittle reasoning and hallucination. We propose Idea2Story, a pre-computation-driven framework for autonomous scientific discovery that shifts literature understanding from online reasoning to offline knowledge construction. Idea2Story continuously collects peer-reviewed papers together with their review feedback, extracts core methodological units, composes reusable research patterns, and organizes them into a structured methodological knowledge graph. At runtime, underspecified user research intents are aligned to established research paradigms, enabling efficient retrieval and reuse of high-quality research patterns instead of open-ended generation and trial-and-error. By grounding research planning and execution in a pre-built knowledge graph, Idea2Story alleviates the context window bottleneck of LLMs and substantially reduces repeated runtime reasoning over literature. We conduct qualitative analyses and preliminary empirical studies demonstrating that Idea2Story can generate coherent, methodologically grounded, and novel research patterns, and can produce several high-quality research demonstrations in an end-to-end setting. These results suggest that offline knowledge construction provides a practical and scalable foundation for reliable autonomous scientific discovery.