Natureza Compartilhada, Criação Única: PRISM para Raciocínio Pluralista via Modelagem Estrutural em Contexto
Shared Nature, Unique Nurture: PRISM for Pluralistic Reasoning via In-context Structure Modeling
February 24, 2026
Autores: Guancheng Tu, Shiyang Zhang, Tianyu Zhang, Yi Zhang, Diji Yang
cs.AI
Resumo
Os Grandes Modelos de Linguagem (LLMs) estão convergindo para um único Hivemind Artificial, onde uma Natureza compartilhada (prioris de pré-treinamento) resulta em um colapso profundo da diversidade distribucional, limitando as perspectivas distintas necessárias para a exploração criativa e a descoberta científica. Para resolver isso, propomos equipar os modelos com uma Nurture no momento da inferência (trajetórias epistêmicas individualizadas) usando o paradigma da Evolução Epistêmica, progredindo através das fases de explorar, internalizar e expressar. Instanciamos isso via PRISM (Raciocínio Pluralístico por meio de Modelagem de Estrutura em Contexto), um sistema agnóstico de modelo que aumenta o LLM com Grafos Epistêmicos Dinâmicos Sob Demanda. Em três benchmarks de criatividade, o PRISM alcança novidade de última geração e expande significativamente a diversidade distribucional. Além disso, avaliamos a utilidade no mundo real por meio de um benchmark desafiador de diagnóstico de doenças raras. Os resultados demonstram que o PRISM descobre com sucesso diagnósticos corretos de cauda longa que os LLMs padrão perdem, confirmando que sua divergência decorre de uma exploração significativa e não de ruído incoerente. No geral, este trabalho estabelece um novo paradigma para a IA Pluralística, indo além do consenso monolítico em direção a um ecossistema diversificado de indivíduos cognitivos únicos, capazes de uma descoberta coletiva e multiperspectiva.
English
Large Language Models (LLMs) are converging towards a singular Artificial Hivemind, where shared Nature (pre-training priors) result in a profound collapse of distributional diversity, limiting the distinct perspectives necessary for creative exploration and scientific discovery. To address this, we propose to equip models with inference-time Nurture (individualized epistemic trajectories) using Epistemic Evolution paradigm, progressing through explore, internalize, and express. We instantiate this via PRISM (Pluralistic Reasoning via In-context Structure Modeling), a model-agnostic system that augments LLM with dynamic On-the-fly Epistemic Graphs. On three creativity benchmarks, PRISM achieves state-of-the-art novelty and significantly expands distributional diversity. Moreover, we evaluate the real-world utility via a challenging rare-disease diagnosis benchmark. Results demonstrate that PRISM successfully uncovers correct long-tail diagnoses that standard LLM miss, confirming that its divergence stems from meaningful exploration rather than incoherent noise. Overall, this work establishes a new paradigm for Pluralistic AI, moving beyond monolithic consensus toward a diverse ecosystem of unique cognitive individuals capable of collective, multi-perspective discovery.