Tudo sobre Pensamentos: Desafiando a Lei do Triângulo de Penrose para a Geração de Pensamentos
Everything of Thoughts: Defying the Law of Penrose Triangle for Thought Generation
November 7, 2023
Autores: Ruomeng Ding, Chaoyun Zhang, Lu Wang, Yong Xu, Minghua Ma, Wei Zhang, Si Qin, Saravan Rajmohan, Qingwei Lin, Dongmei Zhang
cs.AI
Resumo
Os recentes avanços nos Modelos de Linguagem de Grande Escala (LLMs) revolucionaram a tomada de decisão ao decompor problemas complexos em sequências linguísticas mais gerenciáveis, denominadas "pensamentos". Um design eficaz de pensamento deve considerar três perspectivas-chave: desempenho, eficiência e flexibilidade. No entanto, os pensamentos existentes podem apresentar, no máximo, dois desses atributos. Para superar essas limitações, introduzimos uma nova abordagem de indução de pensamento chamada "Everything of Thoughts" (XoT), que desafia a lei do "triângulo de Penrose" dos paradigmas de pensamento existentes. O XoT aproveita o aprendizado por reforço pré-treinado e a Busca em Árvore de Monte Carlo (MCTS) para incorporar conhecimento externo de domínio aos pensamentos, aprimorando assim as capacidades dos LLMs e permitindo que generalizem problemas não vistos de forma eficiente. Por meio da utilização do framework colaborativo de revisão de pensamento MCTS-LLM, essa abordagem produz de forma autônoma mapeamentos cognitivos abrangentes e de alta qualidade com interações mínimas dos LLMs. Além disso, o XoT capacita os LLMs a se engajarem em pensamentos sem restrições, permitindo mapeamentos cognitivos flexíveis para problemas com múltiplas soluções.
English
Recent advancements in Large Language Models (LLMs) have revolutionized
decision-making by breaking down complex problems into more manageable language
sequences referred to as ``thoughts''. An effective thought design should
consider three key perspectives: performance, efficiency, and flexibility.
However, existing thought can at most exhibit two of these attributes. To
address these limitations, we introduce a novel thought prompting approach
called ``Everything of Thoughts'' (XoT) to defy the law of ``Penrose triangle
of existing thought paradigms. XoT leverages pretrained reinforcement learning
and Monte Carlo Tree Search (MCTS) to incorporate external domain knowledge
into thoughts, thereby enhancing LLMs' capabilities and enabling them to
generalize to unseen problems efficiently. Through the utilization of the
MCTS-LLM collaborative thought revision framework, this approach autonomously
produces high-quality comprehensive cognitive mappings with minimal LLM
interactions. Additionally, XoT empowers LLMs to engage in unconstrained
thinking, allowing for flexible cognitive mappings for problems with multiple
solutions.