ParallelMuse: Agentisches paralleles Denken für tiefgründige Informationssuche
ParallelMuse: Agentic Parallel Thinking for Deep Information Seeking
October 28, 2025
papers.authors: Baixuan Li, Dingchu Zhang, Jialong Wu, Wenbiao Yin, Zhengwei Tao, Yida Zhao, Liwen Zhang, Haiyang Shen, Runnan Fang, Pengjun Xie, Jingren Zhou, Yong Jiang
cs.AI
papers.abstract
Paralleles Denken erweitert die Erkundungsbreite und ergänzt die tiefgehende Erkundung von informationssuchenden (IS) Agenten, um die Problemlösungsfähigkeit weiter zu verbessern. Herkömmliches paralleles Denken steht in diesem Kontext jedoch vor zwei zentralen Herausforderungen: Ineffizienz durch wiederholtes Neuaufsetzen von Grund auf und Schwierigkeiten bei der Integration langfristiger Denkpfade während der Antwortgenerierung, da begrenzte Kontextkapazität eine vollständige Berücksichtigung des Denkprozesses verhindert. Um diese Probleme zu adressieren, schlagen wir ParallelMuse vor, ein zweistufiges Paradigma für tiefgehende IS-Agenten. Die erste Stufe, Funktionalitäts-spezifisches Teil-Rollout, unterteilt generierte Sequenzen in funktionale Bereiche und führt unsicherheitsgesteuerte Pfadwiederverwendung und Verzweigung durch, um die Erkundungseffizienz zu steigern. Die zweite Stufe, Komprimierte Denkaggregation, nutzt Redundanzen im Denkprozess, um für die Antwortableitung relevante Informationen verlustfrei zu komprimieren und eine kohärente Endantwort zu synthetisieren. Experimente mit verschiedenen Open-Source-Agenten und Benchmarks zeigen eine Leistungssteigerung von bis zu 62 % bei einer Reduzierung des Erkundungs-Token-Verbrauchs um 10–30 %.
English
Parallel thinking expands exploration breadth, complementing the deep
exploration of information-seeking (IS) agents to further enhance
problem-solving capability. However, conventional parallel thinking faces two
key challenges in this setting: inefficiency from repeatedly rolling out from
scratch, and difficulty in integrating long-horizon reasoning trajectories
during answer generation, as limited context capacity prevents full
consideration of the reasoning process. To address these issues, we propose
ParallelMuse, a two-stage paradigm designed for deep IS agents. The first
stage, Functionality-Specified Partial Rollout, partitions generated sequences
into functional regions and performs uncertainty-guided path reuse and
branching to enhance exploration efficiency. The second stage, Compressed
Reasoning Aggregation, exploits reasoning redundancy to losslessly compress
information relevant to answer derivation and synthesize a coherent final
answer. Experiments across multiple open-source agents and benchmarks
demonstrate up to 62% performance improvement with a 10--30% reduction in
exploratory token consumption.