ChatPaper.aiChatPaper

ParallelMuse: Agentisches paralleles Denken für tiefgründige Informationssuche

ParallelMuse: Agentic Parallel Thinking for Deep Information Seeking

October 28, 2025
papers.authors: Baixuan Li, Dingchu Zhang, Jialong Wu, Wenbiao Yin, Zhengwei Tao, Yida Zhao, Liwen Zhang, Haiyang Shen, Runnan Fang, Pengjun Xie, Jingren Zhou, Yong Jiang
cs.AI

papers.abstract

Paralleles Denken erweitert die Erkundungsbreite und ergänzt die tiefgehende Erkundung von informationssuchenden (IS) Agenten, um die Problemlösungsfähigkeit weiter zu verbessern. Herkömmliches paralleles Denken steht in diesem Kontext jedoch vor zwei zentralen Herausforderungen: Ineffizienz durch wiederholtes Neuaufsetzen von Grund auf und Schwierigkeiten bei der Integration langfristiger Denkpfade während der Antwortgenerierung, da begrenzte Kontextkapazität eine vollständige Berücksichtigung des Denkprozesses verhindert. Um diese Probleme zu adressieren, schlagen wir ParallelMuse vor, ein zweistufiges Paradigma für tiefgehende IS-Agenten. Die erste Stufe, Funktionalitäts-spezifisches Teil-Rollout, unterteilt generierte Sequenzen in funktionale Bereiche und führt unsicherheitsgesteuerte Pfadwiederverwendung und Verzweigung durch, um die Erkundungseffizienz zu steigern. Die zweite Stufe, Komprimierte Denkaggregation, nutzt Redundanzen im Denkprozess, um für die Antwortableitung relevante Informationen verlustfrei zu komprimieren und eine kohärente Endantwort zu synthetisieren. Experimente mit verschiedenen Open-Source-Agenten und Benchmarks zeigen eine Leistungssteigerung von bis zu 62 % bei einer Reduzierung des Erkundungs-Token-Verbrauchs um 10–30 %.
English
Parallel thinking expands exploration breadth, complementing the deep exploration of information-seeking (IS) agents to further enhance problem-solving capability. However, conventional parallel thinking faces two key challenges in this setting: inefficiency from repeatedly rolling out from scratch, and difficulty in integrating long-horizon reasoning trajectories during answer generation, as limited context capacity prevents full consideration of the reasoning process. To address these issues, we propose ParallelMuse, a two-stage paradigm designed for deep IS agents. The first stage, Functionality-Specified Partial Rollout, partitions generated sequences into functional regions and performs uncertainty-guided path reuse and branching to enhance exploration efficiency. The second stage, Compressed Reasoning Aggregation, exploits reasoning redundancy to losslessly compress information relevant to answer derivation and synthesize a coherent final answer. Experiments across multiple open-source agents and benchmarks demonstrate up to 62% performance improvement with a 10--30% reduction in exploratory token consumption.
PDF202December 1, 2025