ChatPaper.aiChatPaper

MiniGPT-v2: Großes Sprachmodell als einheitliche Schnittstelle für Multi-Task-Lernen in der Vision-Sprache-Domäne

MiniGPT-v2: large language model as a unified interface for vision-language multi-task learning

October 14, 2023
Autoren: Jun Chen, Deyao Zhu, Xiaoqian Shen, Xiang Li, Zechun Liu, Pengchuan Zhang, Raghuraman Krishnamoorthi, Vikas Chandra, Yunyang Xiong, Mohamed Elhoseiny
cs.AI

Zusammenfassung

Große Sprachmodelle haben ihre bemerkenswerten Fähigkeiten als allgemeine Schnittstelle für verschiedene sprachbezogene Anwendungen unter Beweis gestellt. Motiviert durch diese Erkenntnis, streben wir an, eine einheitliche Schnittstelle für die Bewältigung zahlreicher Vision-Sprache-Aufgaben zu entwickeln, darunter Bildbeschreibung, visuelle Fragebeantwortung und visuelle Verankerung, um nur einige zu nennen. Die Herausforderung besteht darin, ein einziges Modell effektiv für diverse Vision-Sprache-Aufgaben mit einfachen multimodalen Anweisungen einzusetzen. Um dieses Ziel zu erreichen, stellen wir MiniGPT-v2 vor, ein Modell, das als einheitliche Schnittstelle für die bessere Handhabung verschiedener Vision-Sprache-Aufgaben dienen kann. Wir schlagen vor, bei der Schulung des Modells eindeutige Identifikatoren für verschiedene Aufgaben zu verwenden. Diese Identifikatoren ermöglichen es unserem Modell, jede Aufgabenanweisung mühelos besser zu unterscheiden und verbessern auch die Lernleistung des Modells für jede Aufgabe. Nach dem dreistufigen Trainingsprozess zeigen die experimentellen Ergebnisse, dass MiniGPT-v2 im Vergleich zu anderen allgemeinen Vision-Sprache-Modellen eine starke Leistung auf vielen Benchmarks für visuelle Fragebeantwortung und visuelle Verankerung erzielt. Unser Modell und die Codes sind unter https://minigpt-v2.github.io/ verfügbar.
English
Large language models have shown their remarkable capabilities as a general interface for various language-related applications. Motivated by this, we target to build a unified interface for completing many vision-language tasks including image description, visual question answering, and visual grounding, among others. The challenge is to use a single model for performing diverse vision-language tasks effectively with simple multi-modal instructions. Towards this objective, we introduce MiniGPT-v2, a model that can be treated as a unified interface for better handling various vision-language tasks. We propose using unique identifiers for different tasks when training the model. These identifiers enable our model to better distinguish each task instruction effortlessly and also improve the model learning efficiency for each task. After the three-stage training, the experimental results show that MiniGPT-v2 achieves strong performance on many visual question-answering and visual grounding benchmarks compared to other vision-language generalist models. Our model and codes are available at https://minigpt-v2.github.io/
PDF211December 15, 2024