ChatPaper.aiChatPaper

Gemeinsame Natur, einzigartige Prägung: PRISM für pluralistisches Schließen durch In-context-Strukturmodellierung

Shared Nature, Unique Nurture: PRISM for Pluralistic Reasoning via In-context Structure Modeling

February 24, 2026
Autoren: Guancheng Tu, Shiyang Zhang, Tianyu Zhang, Yi Zhang, Diji Yang
cs.AI

Zusammenfassung

Große Sprachmodelle (LLMs) konvergieren zunehmend zu einem singulären künstlichen Schwarmbewusstsein, bei dem gemeinsame Natur (A-priori-Annahmen aus dem Vortraining) zu einem tiefgreifenden Kollaps der Verteilungsvielfalt führen und damit die distincten Perspektiven einschränken, die für kreative Exploration und wissenschaftliche Entdeckung notwendig sind. Um dies zu adressieren, schlagen wir vor, Modelle mit Inferenzzeit-basierter Nurture (individualisierten epistemischen Trajektorien) mittels des Paradigmas der Epistemischen Evolution auszustatten, die Phasen der Exploration, Internalisierung und Expression durchläuft. Wir instanziieren dies durch PRISM (Pluralistisches Schließen durch In-context-Strukturmodellierung), ein modellagnostisches System, das LLMs mit dynamischen On-the-fly-Epistemischen Graphen erweitert. Auf drei Kreativitäts-Benchmarks erzielt PRISM state-of-the-art Neuheitswerte und erweitert die Verteilungsvielfalt signifikant. Darüber hinaus evaluieren wir den praktischen Nutzen anhand eines anspruchsvollen Benchmarks zur Diagnose seltener Krankheiten. Die Ergebnisse zeigen, dass PRISM erfolgreich korrekte Diagnosen aus dem Long-Tail identifiziert, die Standard-LLMs übersehen, was bestätigt, dass seine Divergenz von bedeutungsvoller Exploration und nicht von inkohärentem Rauschen herrührt. Insgesamt etabliert diese Arbeit ein neues Paradigma für Pluralistische KI, das sich über einen monolithischen Konsens hinaus hin zu einem diversen Ökosystem einzigartiger kognitiver Individuen bewegt, die zu kollektiver, multiperspektivischer Entdeckung befähigt sind.
English
Large Language Models (LLMs) are converging towards a singular Artificial Hivemind, where shared Nature (pre-training priors) result in a profound collapse of distributional diversity, limiting the distinct perspectives necessary for creative exploration and scientific discovery. To address this, we propose to equip models with inference-time Nurture (individualized epistemic trajectories) using Epistemic Evolution paradigm, progressing through explore, internalize, and express. We instantiate this via PRISM (Pluralistic Reasoning via In-context Structure Modeling), a model-agnostic system that augments LLM with dynamic On-the-fly Epistemic Graphs. On three creativity benchmarks, PRISM achieves state-of-the-art novelty and significantly expands distributional diversity. Moreover, we evaluate the real-world utility via a challenging rare-disease diagnosis benchmark. Results demonstrate that PRISM successfully uncovers correct long-tail diagnoses that standard LLM miss, confirming that its divergence stems from meaningful exploration rather than incoherent noise. Overall, this work establishes a new paradigm for Pluralistic AI, moving beyond monolithic consensus toward a diverse ecosystem of unique cognitive individuals capable of collective, multi-perspective discovery.
PDF42March 7, 2026