Große Sprachmodelle für die wissenschaftliche Ideengenerierung: Eine kreativitätszentrierte Übersicht
Large Language Models for Scientific Idea Generation: A Creativity-Centered Survey
November 5, 2025
papers.authors: Fatemeh Shahhosseini, Arash Marioriyad, Ali Momen, Mahdieh Soleymani Baghshah, Mohammad Hossein Rohban, Shaghayegh Haghjooy Javanmard
cs.AI
papers.abstract
Die Generierung wissenschaftlicher Ideen steht im Zentrum wissenschaftlicher Entdeckungen und hat den menschlichen Fortschritt vorangetrieben – sei es durch die Lösung ungelöster Probleme oder durch die Formulierung neuartiger Hypothesen zur Erklärung unbekannter Phänomene. Im Gegensatz zu standardmäßigem wissenschaftlichem Schließen oder allgemeiner kreativer Generierung ist die Ideengenerierung in der Wissenschaft eine multikriterielle und offene Aufgabe, bei der die Neuartigkeit eines Beitrags ebenso entscheidend ist wie seine empirische Fundierung. Große Sprachmodelle (LLMs) haben sich kürzlich als vielversprechende Generatoren wissenschaftlicher Ideen erwiesen, die in der Lage sind, kohärente und faktenbasierte Ergebnisse mit überraschender Intuition und akzeptabler Schlussfolgerung zu produzieren. Dennoch bleibt ihre kreative Fähigkeit inkonsistent und wenig verstanden. Dieser Übersichtsartikel bietet eine strukturierte Synthese von Methoden für die LLM-gesteuerte wissenschaftliche Ideenfindung und untersucht, wie verschiedene Ansätze Kreativität mit wissenschaftlicher Solidität in Einklang bringen. Wir kategorisieren bestehende Methoden in fünf komplementäre Familien: Externe Wissensanreicherung, Prompt-basiertes distributionelles Steuern, Skalierung zur Inferenzzeit, Multi-Agenten-Kollaboration und Parameter-Ebene-Anpassung. Um ihre Beiträge zu interpretieren, verwenden wir zwei komplementäre Rahmenwerke: Bodens Taxonomie der kombinatorischen, explorativen und transformativen Kreativität, um das Niveau der Ideen zu charakterisieren, die jede Familie voraussichtlich generiert, und Rhodes 4P-Rahmenwerk – Person, Prozess, Druck und Produkt – um den Aspekt oder die Quelle der Kreativität zu lokalisieren, den jede Methode betont. Durch die Abstimmung methodischer Fortschritte mit Kreativitätsrahmenwerken klärt dieser Überblick den Stand des Feldes und skizziert zentrale Richtungen für zuverlässige, systematische und transformative Anwendungen von LLMs in der wissenschaftlichen Entdeckung.
English
Scientific idea generation lies at the heart of scientific discovery and has driven human progress-whether by solving unsolved problems or proposing novel hypotheses to explain unknown phenomena. Unlike standard scientific reasoning or general creative generation, idea generation in science is a multi-objective and open-ended task, where the novelty of a contribution is as essential as its empirical soundness. Large language models (LLMs) have recently emerged as promising generators of scientific ideas, capable of producing coherent and factual outputs with surprising intuition and acceptable reasoning, yet their creative capacity remains inconsistent and poorly understood. This survey provides a structured synthesis of methods for LLM-driven scientific ideation, examining how different approaches balance creativity with scientific soundness. We categorize existing methods into five complementary families: External knowledge augmentation, Prompt-based distributional steering, Inference-time scaling, Multi-agent collaboration, and Parameter-level adaptation. To interpret their contributions, we employ two complementary frameworks: Boden's taxonomy of Combinatorial, Exploratory and Transformational creativity to characterize the level of ideas each family expected to generate, and Rhodes' 4Ps framework-Person, Process, Press, and Product-to locate the aspect or source of creativity that each method emphasizes. By aligning methodological advances with creativity frameworks, this survey clarifies the state of the field and outlines key directions toward reliable, systematic, and transformative applications of LLMs in scientific discovery.