ChatPaper.aiChatPaper

Über das Diagramm des Denkens

On the Diagram of Thought

September 16, 2024
papers.authors: Yifan Zhang, Yang Yuan, Andrew Chi-Chih Yao
cs.AI

papers.abstract

Wir stellen das Diagramm des Denkens (DoT) vor, ein Framework, das das iterative Argumentieren in großen Sprachmodellen (LLMs) als die Konstruktion eines gerichteten azyklischen Graphen (DAG) innerhalb eines einzigen Modells modelliert. Im Gegensatz zu traditionellen Ansätzen, die Argumentieren als lineare Ketten oder Bäume darstellen, organisiert DoT Vorschläge, Kritiken, Verfeinerungen und Überprüfungen in einer kohärenten DAG-Struktur, die es dem Modell ermöglicht, komplexe Argumentationswege zu erkunden, während die logische Konsistenz aufrechterhalten wird. Jeder Knoten im Diagramm entspricht einer Proposition, die vorgeschlagen, kritisiert, verfeinert oder überprüft wurde, was es dem LLM ermöglicht, sein Argumentieren durch Feedback in natürlicher Sprache iterativ zu verbessern. Durch die Nutzung der autoregressiven Vorhersage des nächsten Tokens mit rollenspezifischen Tokens erleichtert DoT nahtlose Übergänge zwischen Ideenvorschlägen und kritischer Bewertung, wodurch ein reichhaltigeres Feedback als binäre Signale bereitgestellt wird. Darüber hinaus formalisieren wir das DoT-Framework unter Verwendung der Topos-Theorie, was eine mathematische Grundlage bietet, die logische Konsistenz und Stimmigkeit im Argumentationsprozess gewährleistet. Dieser Ansatz verbessert sowohl die Trainings- als auch die Inferenzprozesse innerhalb eines einzelnen LLM, wodurch die Notwendigkeit für mehrere Modelle oder externe Steuermechanismen entfällt. DoT bietet ein konzeptionelles Framework für das Design von Argumentationsspezialisierten Modellen der nächsten Generation, wobei die Effizienz des Trainings, robuste Argumentationsfähigkeiten und theoretische Fundierung im Vordergrund stehen. Der Code ist verfügbar unter https://github.com/diagram-of-thought/diagram-of-thought.
English
We introduce Diagram of Thought (DoT), a framework that models iterative reasoning in large language models (LLMs) as the construction of a directed acyclic graph (DAG) within a single model. Unlike traditional approaches that represent reasoning as linear chains or trees, DoT organizes propositions, critiques, refinements, and verifications into a cohesive DAG structure, allowing the model to explore complex reasoning pathways while maintaining logical consistency. Each node in the diagram corresponds to a proposition that has been proposed, critiqued, refined, or verified, enabling the LLM to iteratively improve its reasoning through natural language feedback. By leveraging auto-regressive next-token prediction with role-specific tokens, DoT facilitates seamless transitions between proposing ideas and critically evaluating them, providing richer feedback than binary signals. Furthermore, we formalize the DoT framework using Topos Theory, providing a mathematical foundation that ensures logical consistency and soundness in the reasoning process. This approach enhances both the training and inference processes within a single LLM, eliminating the need for multiple models or external control mechanisms. DoT offers a conceptual framework for designing next-generation reasoning-specialized models, emphasizing training efficiency, robust reasoning capabilities, and theoretical grounding. The code is available at https://github.com/diagram-of-thought/diagram-of-thought.
PDF142November 16, 2024