ChatPaper.aiChatPaper

ParallelMuse : Pensée parallèle agentique pour une exploration approfondie de l'information

ParallelMuse: Agentic Parallel Thinking for Deep Information Seeking

October 28, 2025
papers.authors: Baixuan Li, Dingchu Zhang, Jialong Wu, Wenbiao Yin, Zhengwei Tao, Yida Zhao, Liwen Zhang, Haiyang Shen, Runnan Fang, Pengjun Xie, Jingren Zhou, Yong Jiang
cs.AI

papers.abstract

La pensée parallèle élargit l'ampleur de l'exploration, complétant l'exploration approfondie des agents de recherche d'information (IS) pour renforcer davantage la capacité de résolution de problèmes. Cependant, la pensée parallèle conventionnelle rencontre deux défis majeurs dans ce contexte : l'inefficacité due au déploiement répété à partir de zéro, et la difficulté d'intégrer des trajectoires de raisonnement à long horizon lors de la génération de réponses, car une capacité contextuelle limitée empêche une prise en compte complète du processus de raisonnement. Pour résoudre ces problèmes, nous proposons ParallelMuse, un paradigme en deux étapes conçu pour les agents IS profonds. La première étape, le Déploiement Partiel à Fonctionnalité Spécifiée, partitionne les séquences générées en régions fonctionnelles et effectue une réutilisation et un branchement de chemins guidés par l'incertitude pour améliorer l'efficacité de l'exploration. La deuxième étape, l'Agrégation de Raisonnement Compressé, exploite la redondance du raisonnement pour compresser sans perte les informations pertinentes pour la dérivation de la réponse et synthétiser une réponse finale cohérente. Les expériences menées sur plusieurs agents open-source et benchmarks démontrent une amélioration des performances allant jusqu'à 62 % avec une réduction de 10 à 30 % de la consommation de tokens d'exploration.
English
Parallel thinking expands exploration breadth, complementing the deep exploration of information-seeking (IS) agents to further enhance problem-solving capability. However, conventional parallel thinking faces two key challenges in this setting: inefficiency from repeatedly rolling out from scratch, and difficulty in integrating long-horizon reasoning trajectories during answer generation, as limited context capacity prevents full consideration of the reasoning process. To address these issues, we propose ParallelMuse, a two-stage paradigm designed for deep IS agents. The first stage, Functionality-Specified Partial Rollout, partitions generated sequences into functional regions and performs uncertainty-guided path reuse and branching to enhance exploration efficiency. The second stage, Compressed Reasoning Aggregation, exploits reasoning redundancy to losslessly compress information relevant to answer derivation and synthesize a coherent final answer. Experiments across multiple open-source agents and benchmarks demonstrate up to 62% performance improvement with a 10--30% reduction in exploratory token consumption.
PDF202December 1, 2025