ChatPaper.aiChatPaper

MAPS: 다중 에이전트 기반의 빅 세븐 성격 모델과 소크라테스식 안내를 활용한 다중모드 과학적 문제 해결 프레임워크

MAPS: A Multi-Agent Framework Based on Big Seven Personality and Socratic Guidance for Multimodal Scientific Problem Solving

March 21, 2025
저자: Jian Zhang, Zhiyuan Wang, Zhangqi Wang, Xinyu Zhang, Fangzhi Xu, Qika Lin, Rui Mao, Erik Cambria, Jun Liu
cs.AI

초록

멀티모달 과학 문제(MSPs)는 텍스트와 다이어그램과 같은 여러 모달리티의 통합을 요구하는 복잡한 문제를 포함하며, 이는 인공지능 분야에서 상당한 도전 과제로 남아 있습니다. 전통적인 과학 문제 해결에서는 진전이 있었지만, MSPs는 여전히 두 가지 주요 문제에 직면해 있습니다: 과학 문제 해결에서의 멀티모달 종합적 추론의 어려움과 반성 및 재고 능력의 부족이 그것입니다. 이러한 문제를 해결하기 위해, 우리는 Big Seven Personality와 소크라테스적 지도를 기반으로 한 다중 에이전트 프레임워크(MAPS)를 소개합니다. 이 프레임워크는 피드백 메커니즘과 소크라테스 방법을 활용하여 MSPs 해결을 안내하는 7개의 독특한 에이전트를 사용합니다. 첫 번째 문제를 해결하기 위해, 우리는 문제 해결 과정의 특정 단계에 초점을 맞춘 점진적인 4단계 에이전트 해결 전략을 제안합니다. 두 번째 문제를 해결하기 위해, 우리는 소크라테스적 질문에서 영감을 받은 비평가(Critic) 에이전트를 도입하여 비판적 사고를 촉진하고 자율 학습을 자극합니다. 우리는 EMMA, Olympiad, MathVista 데이터셋에 대해 광범위한 실험을 수행하여 모든 작업에서 현재 SOTA 모델을 15.84% 능가하는 유망한 결과를 달성했습니다. 동시에, 추가적인 분석 실험을 통해 모델의 진전과 일반화 능력도 검증했습니다.
English
Multimodal scientific problems (MSPs) involve complex issues that require the integration of multiple modalities, such as text and diagrams, presenting a significant challenge in artificial intelligence. While progress has been made in addressing traditional scientific problems, MSPs still face two primary issues: the challenge of multi-modal comprehensive reasoning in scientific problem-solving and the lack of reflective and rethinking capabilities. To address these issues, we introduce a Multi-Agent framework based on the Big Seven Personality and Socratic guidance (MAPS). This framework employs seven distinct agents that leverage feedback mechanisms and the Socratic method to guide the resolution of MSPs. To tackle the first issue, we propose a progressive four-agent solving strategy, where each agent focuses on a specific stage of the problem-solving process. For the second issue, we introduce a Critic agent, inspired by Socratic questioning, which prompts critical thinking and stimulates autonomous learning. We conduct extensive experiments on the EMMA, Olympiad, and MathVista datasets, achieving promising results that outperform the current SOTA model by 15.84% across all tasks. Meanwhile, the additional analytical experiments also verify the model's progress as well as generalization ability.

Summary

AI-Generated Summary

PDF542March 24, 2025