ChatPaper.aiChatPaper

De Généraliste à Spécialiste : Adapter les Modèles de Langage Visuel via l'Ajustement d'Instructions Visuelles Spécifiques à la Tâche

From Generalist to Specialist: Adapting Vision Language Models via Task-Specific Visual Instruction Tuning

October 9, 2024
Auteurs: Yang Bai, Yang Zhou, Jun Zhou, Rick Siow Mong Goh, Daniel Shu Wei Ting, Yong Liu
cs.AI

Résumé

Les grands modèles de langage vision (VLM), qui combinent de grands modèles de langage avec des encodeurs visuels, montrent des promesses dans diverses tâches. Cependant, ils ont souvent des performances inférieures dans des applications spécifiques en raison des écarts de domaine entre la pré-formation et l'optimisation fine. Nous introduisons VITask, un nouveau cadre qui améliore l'adaptabilité spécifique à la tâche des VLM en intégrant des modèles spécifiques à la tâche (TSM). VITask utilise trois stratégies clés : l'incitation par exemple (EP), l'alignement de la distribution des réponses (RDA) et l'ajustement contrastif des réponses (CRT) pour améliorer les performances spécifiques à la tâche des VLM en ajustant leurs distributions de réponses. EP permet aux caractéristiques des TSM de guider les VLM, tandis que RDA permet aux VLM de s'adapter sans les TSM lors de l'inférence en apprenant des modèles incités par des exemples. CRT optimise en outre le classement des paires image-réponse correctes, réduisant ainsi le risque de générer des réponses indésirables. Des expériences sur 12 ensembles de données de diagnostic médical couvrant 9 modalités d'imagerie montrent que VITask surpasse à la fois les VLMs accordés aux instructions de base et les TSM, démontrant sa capacité à intégrer efficacement des caractéristiques complémentaires des deux modèles. De plus, VITask offre des avantages pratiques tels qu'une intégration flexible des TSM et une robustesse aux instructions incomplètes, en faisant une solution polyvalente et efficace pour l'optimisation des VLM spécifiques à la tâche. Notre code est disponible sur https://github.com/baiyang4/VITask.
English
Large vision language models (VLMs) combine large language models with vision encoders, demonstrating promise across various tasks. However, they often underperform in task-specific applications due to domain gaps between pre-training and fine-tuning. We introduce VITask, a novel framework that enhances task-specific adaptability of VLMs by integrating task-specific models (TSMs). VITask employs three key strategies: exemplar prompting (EP), response distribution alignment (RDA), and contrastive response tuning (CRT) to improve the task-specific performance of VLMs by adjusting their response distributions. EP allows TSM features to guide VLMs, while RDA enables VLMs to adapt without TSMs during inference by learning from exemplar-prompted models. CRT further optimizes the ranking of correct image-response pairs, thereby reducing the risk of generating undesired responses. Experiments on 12 medical diagnosis datasets across 9 imaging modalities show that VITask outperforms both vanilla instruction-tuned VLMs and TSMs, showcasing its ability to integrate complementary features from both models effectively. Additionally, VITask offers practical advantages such as flexible TSM integration and robustness to incomplete instructions, making it a versatile and efficient solution for task-specific VLM tuning. Our code are available at https://github.com/baiyang4/VITask.
PDF382November 16, 2024