SymbolicAI: 生成モデルとソルバーを統合した論理ベースアプローチのためのフレームワーク

SymbolicAI: A framework for logic-based approaches combining generative models and solvers

February 1, 2024
著者: Marius-Constantin Dinu, Claudiu Leoveanu-Condrei, Markus Holzleitner, Werner Zellinger, Sepp Hochreiter
cs.AI

要旨

私たちは、生成プロセスにおける概念学習とフロー管理に論理ベースのアプローチを採用した、汎用的でモジュール型のフレームワーク「SymbolicAI」を紹介します。SymbolicAIは、大規模言語モデル(LLM)を自然言語および形式言語の指示に基づいてタスクを実行するセマンティックパーサーとして扱うことで、生成モデルと多様なソルバーをシームレスに統合し、記号的推論と生成AIの間のギャップを埋めます。私たちは、複雑なタスクに取り組むために確率的プログラミングの原則を活用し、微分可能なプログラミングパラダイムと古典的プログラミングパラダイムをそれぞれの強みを活かして利用します。このフレームワークは、データストリーム操作のための多態的、合成的、自己言及的な操作セットを導入し、LLMの出力をユーザーの目的に合わせます。その結果、ゼロショットおよび少数ショット学習能力を備えた様々な基盤モデルの能力と、特定の問題に対処するための専門的で微調整されたモデルやソルバーとの間を移行することが可能になります。さらに、このフレームワークは説明可能な計算グラフの作成と評価を容易にします。最後に、これらの計算グラフを評価するための品質指標とその経験的スコアを紹介し、一連の複雑なワークフローにわたって様々な最先端のLLMを比較するベンチマークを提案します。私たちはこの経験的スコアを「Vector Embedding for Relational Trajectory Evaluation through Cross-similarity」、略してVERTEXスコアと呼びます。フレームワークのコードベースとベンチマークは以下にリンクされています。
English
We introduce SymbolicAI, a versatile and modular framework employing a logic-based approach to concept learning and flow management in generative processes. SymbolicAI enables the seamless integration of generative models with a diverse range of solvers by treating large language models (LLMs) as semantic parsers that execute tasks based on both natural and formal language instructions, thus bridging the gap between symbolic reasoning and generative AI. We leverage probabilistic programming principles to tackle complex tasks, and utilize differentiable and classical programming paradigms with their respective strengths. The framework introduces a set of polymorphic, compositional, and self-referential operations for data stream manipulation, aligning LLM outputs with user objectives. As a result, we can transition between the capabilities of various foundation models endowed with zero- and few-shot learning capabilities and specialized, fine-tuned models or solvers proficient in addressing specific problems. In turn, the framework facilitates the creation and evaluation of explainable computational graphs. We conclude by introducing a quality measure and its empirical score for evaluating these computational graphs, and propose a benchmark that compares various state-of-the-art LLMs across a set of complex workflows. We refer to the empirical score as the "Vector Embedding for Relational Trajectory Evaluation through Cross-similarity", or VERTEX score for short. The framework codebase and benchmark are linked below.

Summary

AI-Generated Summary

PDF205December 15, 2024