ChatPaper.aiChatPaper

На диаграмме мышления

On the Diagram of Thought

September 16, 2024
Авторы: Yifan Zhang, Yang Yuan, Andrew Chi-Chih Yao
cs.AI

Аннотация

Мы представляем Diagram of Thought (DoT), фреймворк, моделирующий итеративное рассуждение в больших языковых моделях (LLM) как построение направленного ациклического графа (DAG) в рамках одной модели. В отличие от традиционных подходов, представляющих рассуждение как линейные цепочки или деревья, DoT организует утверждения, критики, уточнения и проверки в единый DAG-структуру, позволяя модели исследовать сложные пути рассуждений, сохраняя логическую последовательность. Каждый узел в диаграмме соответствует утверждению, которое было предложено, скритиковано, уточнено или проверено, позволяя LLM итеративно улучшать свои рассуждения через обратную связь на естественном языке. Путем использования авторегрессивного прогнозирования следующего токена с помощью токенов, специфичных для роли, DoT облегчает плавные переходы между предложением идей и их критической оценкой, обеспечивая более богатую обратную связь, чем бинарные сигналы. Более того, мы формализуем фреймворк DoT, используя Топос-теорию, обеспечивая математическое основание, которое гарантирует логическую последовательность и обоснованность в процессе рассуждения. Этот подход улучшает как процессы обучения, так и вывода в рамках одной LLM, устраняя необходимость в нескольких моделях или внешних механизмах управления. DoT предлагает концептуальный фреймворк для разработки моделей, специализированных на рассуждениях следующего поколения, акцентируя внимание на эффективности обучения, устойчивых рассуждениях и теоретическом обосновании. Код доступен по ссылке https://github.com/diagram-of-thought/diagram-of-thought.
English
We introduce Diagram of Thought (DoT), a framework that models iterative reasoning in large language models (LLMs) as the construction of a directed acyclic graph (DAG) within a single model. Unlike traditional approaches that represent reasoning as linear chains or trees, DoT organizes propositions, critiques, refinements, and verifications into a cohesive DAG structure, allowing the model to explore complex reasoning pathways while maintaining logical consistency. Each node in the diagram corresponds to a proposition that has been proposed, critiqued, refined, or verified, enabling the LLM to iteratively improve its reasoning through natural language feedback. By leveraging auto-regressive next-token prediction with role-specific tokens, DoT facilitates seamless transitions between proposing ideas and critically evaluating them, providing richer feedback than binary signals. Furthermore, we formalize the DoT framework using Topos Theory, providing a mathematical foundation that ensures logical consistency and soundness in the reasoning process. This approach enhances both the training and inference processes within a single LLM, eliminating the need for multiple models or external control mechanisms. DoT offers a conceptual framework for designing next-generation reasoning-specialized models, emphasizing training efficiency, robust reasoning capabilities, and theoretical grounding. The code is available at https://github.com/diagram-of-thought/diagram-of-thought.

Summary

AI-Generated Summary

PDF142November 16, 2024