Tutto sui Pensieri: Sfidare la Legge del Triangolo di Penrose per la Generazione di Pensieri
Everything of Thoughts: Defying the Law of Penrose Triangle for Thought Generation
November 7, 2023
Autori: Ruomeng Ding, Chaoyun Zhang, Lu Wang, Yong Xu, Minghua Ma, Wei Zhang, Si Qin, Saravan Rajmohan, Qingwei Lin, Dongmei Zhang
cs.AI
Abstract
I recenti progressi nei Modelli Linguistici di Grande Scala (LLM) hanno rivoluzionato il processo decisionale scomponendo problemi complessi in sequenze linguistiche più gestibili, denominate "pensieri". Un design efficace dei pensieri dovrebbe considerare tre prospettive chiave: prestazioni, efficienza e flessibilità. Tuttavia, i pensieri esistenti possono al massimo esibire due di questi attributi. Per affrontare queste limitazioni, introduciamo un nuovo approccio di prompting dei pensieri chiamato "Everything of Thoughts" (XoT), che sfida la legge del "triangolo di Penrose" dei paradigmi di pensiero esistenti. XoT sfrutta l'apprendimento per rinforzo preaddestrato e la Ricerca ad Albero Monte Carlo (MCTS) per incorporare conoscenze di dominio esterne nei pensieri, migliorando così le capacità degli LLM e consentendo loro di generalizzare in modo efficiente a problemi non visti. Attraverso l'utilizzo del framework di revisione collaborativa dei pensieri MCTS-LLM, questo approccio produce autonomamente mappature cognitive complete e di alta qualità con un numero minimo di interazioni con gli LLM. Inoltre, XoT consente agli LLM di impegnarsi in un pensiero senza vincoli, permettendo mappature cognitive flessibili per problemi con più soluzioni.
English
Recent advancements in Large Language Models (LLMs) have revolutionized
decision-making by breaking down complex problems into more manageable language
sequences referred to as ``thoughts''. An effective thought design should
consider three key perspectives: performance, efficiency, and flexibility.
However, existing thought can at most exhibit two of these attributes. To
address these limitations, we introduce a novel thought prompting approach
called ``Everything of Thoughts'' (XoT) to defy the law of ``Penrose triangle
of existing thought paradigms. XoT leverages pretrained reinforcement learning
and Monte Carlo Tree Search (MCTS) to incorporate external domain knowledge
into thoughts, thereby enhancing LLMs' capabilities and enabling them to
generalize to unseen problems efficiently. Through the utilization of the
MCTS-LLM collaborative thought revision framework, this approach autonomously
produces high-quality comprehensive cognitive mappings with minimal LLM
interactions. Additionally, XoT empowers LLMs to engage in unconstrained
thinking, allowing for flexible cognitive mappings for problems with multiple
solutions.