Alles van Gedachten: Het Tarten van de Wet van de Penrose Driehoek voor Gedachtegeneratie
Everything of Thoughts: Defying the Law of Penrose Triangle for Thought Generation
November 7, 2023
Auteurs: Ruomeng Ding, Chaoyun Zhang, Lu Wang, Yong Xu, Minghua Ma, Wei Zhang, Si Qin, Saravan Rajmohan, Qingwei Lin, Dongmei Zhang
cs.AI
Samenvatting
Recente ontwikkelingen in Large Language Models (LLMs) hebben besluitvorming gerevolutioneerd door complexe problemen op te delen in beter beheersbare taalreeksen, aangeduid als "gedachten". Een effectief gedachtenontwerp moet rekening houden met drie belangrijke perspectieven: prestaties, efficiëntie en flexibiliteit. Bestaande gedachten kunnen echter maximaal twee van deze eigenschappen vertonen. Om deze beperkingen aan te pakken, introduceren we een nieuwe benadering voor gedachtenprompting genaamd "Everything of Thoughts" (XoT) om de wet van de "Penrose-driehoek van bestaande gedachtenparadigma's" te doorbreken. XoT maakt gebruik van vooraf getrainde reinforcement learning en Monte Carlo Tree Search (MCTS) om externe domeinkennis in gedachten te integreren, waardoor de mogelijkheden van LLMs worden verbeterd en ze in staat worden gesteld om efficiënt te generaliseren naar onbekende problemen. Door het gebruik van het MCTS-LLM collaboratieve gedachtenrevisiekader produceert deze aanpak autonoom hoogwaardige, uitgebreide cognitieve mapping met minimale LLM-interacties. Bovendien stelt XoT LLMs in staat om onbeperkt te denken, waardoor flexibele cognitieve mapping mogelijk wordt voor problemen met meerdere oplossingen.
English
Recent advancements in Large Language Models (LLMs) have revolutionized
decision-making by breaking down complex problems into more manageable language
sequences referred to as ``thoughts''. An effective thought design should
consider three key perspectives: performance, efficiency, and flexibility.
However, existing thought can at most exhibit two of these attributes. To
address these limitations, we introduce a novel thought prompting approach
called ``Everything of Thoughts'' (XoT) to defy the law of ``Penrose triangle
of existing thought paradigms. XoT leverages pretrained reinforcement learning
and Monte Carlo Tree Search (MCTS) to incorporate external domain knowledge
into thoughts, thereby enhancing LLMs' capabilities and enabling them to
generalize to unseen problems efficiently. Through the utilization of the
MCTS-LLM collaborative thought revision framework, this approach autonomously
produces high-quality comprehensive cognitive mappings with minimal LLM
interactions. Additionally, XoT empowers LLMs to engage in unconstrained
thinking, allowing for flexible cognitive mappings for problems with multiple
solutions.