Nature partagée, éducation unique : PRISM pour un raisonnement pluraliste via la modélisation structurelle contextuelle
Shared Nature, Unique Nurture: PRISM for Pluralistic Reasoning via In-context Structure Modeling
February 24, 2026
Auteurs: Guancheng Tu, Shiyang Zhang, Tianyu Zhang, Yi Zhang, Diji Yang
cs.AI
Résumé
Les modèles de langage de grande taille (LLM) convergent vers un unique Esprit Collectif Artificiel, où leur Nature commune (prédispositions issues du pré-entraînement) entraîne un effondrement profond de la diversité distributionnelle, limitant ainsi les perspectives distinctes nécessaires à l'exploration créative et à la découverte scientifique. Pour remédier à cela, nous proposons d'équiper les modèles avec un Apport individualisé (trajectoires épistémiques individualisées) lors de l'inférence, en utilisant le paradigme de l'Évolution Épistémique, qui progresse selon trois phases : exploration, internalisation et expression. Nous matérialisons cette approche via PRISM (Raisonnement Pluraliste par Modélisation de Structure en Contexte), un système agnostique au modèle qui augmente un LLM avec des Graphes Épistémiques Dynamiques Générés à la Volée. Sur trois benchmarks de créativité, PRISM atteint un niveau de nouveauté de pointe et élargit considérablement la diversité distributionnelle. De plus, nous évaluons son utilité dans le monde réel via un benchmark difficile de diagnostic de maladies rares. Les résultats démontrent que PRISM identifie avec succès des diagnostics corrects mais rares que les LLM standard manquent, confirmant que sa divergence provient d'une exploration significative plutôt que d'un bruit incohérent. Dans l'ensemble, ce travail établit un nouveau paradigme pour une IA Pluraliste, dépassant le consensus monolithique au profit d'un écosystème diversifié d'individus cognitifs uniques, capables d'une découverte collective et multiperspectiviste.
English
Large Language Models (LLMs) are converging towards a singular Artificial Hivemind, where shared Nature (pre-training priors) result in a profound collapse of distributional diversity, limiting the distinct perspectives necessary for creative exploration and scientific discovery. To address this, we propose to equip models with inference-time Nurture (individualized epistemic trajectories) using Epistemic Evolution paradigm, progressing through explore, internalize, and express. We instantiate this via PRISM (Pluralistic Reasoning via In-context Structure Modeling), a model-agnostic system that augments LLM with dynamic On-the-fly Epistemic Graphs. On three creativity benchmarks, PRISM achieves state-of-the-art novelty and significantly expands distributional diversity. Moreover, we evaluate the real-world utility via a challenging rare-disease diagnosis benchmark. Results demonstrate that PRISM successfully uncovers correct long-tail diagnoses that standard LLM miss, confirming that its divergence stems from meaningful exploration rather than incoherent noise. Overall, this work establishes a new paradigm for Pluralistic AI, moving beyond monolithic consensus toward a diverse ecosystem of unique cognitive individuals capable of collective, multi-perspective discovery.