ParallelMuse : Pensée parallèle agentique pour une exploration approfondie de l'information
ParallelMuse: Agentic Parallel Thinking for Deep Information Seeking
October 28, 2025
papers.authors: Baixuan Li, Dingchu Zhang, Jialong Wu, Wenbiao Yin, Zhengwei Tao, Yida Zhao, Liwen Zhang, Haiyang Shen, Runnan Fang, Pengjun Xie, Jingren Zhou, Yong Jiang
cs.AI
papers.abstract
La pensée parallèle élargit l'ampleur de l'exploration, complétant l'exploration approfondie des agents de recherche d'information (IS) pour renforcer davantage la capacité de résolution de problèmes. Cependant, la pensée parallèle conventionnelle rencontre deux défis majeurs dans ce contexte : l'inefficacité due au déploiement répété à partir de zéro, et la difficulté d'intégrer des trajectoires de raisonnement à long horizon lors de la génération de réponses, car une capacité contextuelle limitée empêche une prise en compte complète du processus de raisonnement. Pour résoudre ces problèmes, nous proposons ParallelMuse, un paradigme en deux étapes conçu pour les agents IS profonds. La première étape, le Déploiement Partiel à Fonctionnalité Spécifiée, partitionne les séquences générées en régions fonctionnelles et effectue une réutilisation et un branchement de chemins guidés par l'incertitude pour améliorer l'efficacité de l'exploration. La deuxième étape, l'Agrégation de Raisonnement Compressé, exploite la redondance du raisonnement pour compresser sans perte les informations pertinentes pour la dérivation de la réponse et synthétiser une réponse finale cohérente. Les expériences menées sur plusieurs agents open-source et benchmarks démontrent une amélioration des performances allant jusqu'à 62 % avec une réduction de 10 à 30 % de la consommation de tokens d'exploration.
English
Parallel thinking expands exploration breadth, complementing the deep
exploration of information-seeking (IS) agents to further enhance
problem-solving capability. However, conventional parallel thinking faces two
key challenges in this setting: inefficiency from repeatedly rolling out from
scratch, and difficulty in integrating long-horizon reasoning trajectories
during answer generation, as limited context capacity prevents full
consideration of the reasoning process. To address these issues, we propose
ParallelMuse, a two-stage paradigm designed for deep IS agents. The first
stage, Functionality-Specified Partial Rollout, partitions generated sequences
into functional regions and performs uncertainty-guided path reuse and
branching to enhance exploration efficiency. The second stage, Compressed
Reasoning Aggregation, exploits reasoning redundancy to losslessly compress
information relevant to answer derivation and synthesize a coherent final
answer. Experiments across multiple open-source agents and benchmarks
demonstrate up to 62% performance improvement with a 10--30% reduction in
exploratory token consumption.