ChatPaper.aiChatPaper

DeepSpeed-VisualChat: Multi-Ronde Multi-Beeld Interleave Chat via Multi-Modale Causale Aandacht

DeepSpeed-VisualChat: Multi-Round Multi-Image Interleave Chat via Multi-Modal Causal Attention

September 25, 2023
Auteurs: Zhewei Yao, Xiaoxia Wu, Conglong Li, Minjia Zhang, Heyang Qi, Olatunji Ruwase, Ammar Ahmad Awan, Samyam Rajbhandari, Yuxiong He
cs.AI

Samenvatting

De meeste bestaande multimodale modellen, gehinderd door hun onvermogen om geïntercaleerde afbeelding- en tekstinvoer in dialogen met meerdere afbeeldingen en meerdere rondes vaardig te verwerken, worden geconfronteerd met aanzienlijke beperkingen in de toewijzing van middelen voor training en toegankelijkheid van gegevens, wat hun aanpassingsvermogen en schaalbaarheid over verschillende interactiedomeinen beïnvloedt. Om dit aan te pakken, presenteren we het DeepSpeed-VisualChat framework, ontworpen om Large Language Models (LLM's) te optimaliseren door multimodale mogelijkheden te integreren, met de focus op het verbeteren van de vaardigheid van Large Vision en Language Models in het verwerken van geïntercaleerde invoer. Ons framework is opmerkelijk vanwege (1) de open-source ondersteuning voor dialogen met meerdere rondes en meerdere afbeeldingen, (2) de introductie van een innovatief multimodaal causaal aandachtmechanisme, en (3) het gebruik van datablendingtechnieken op bestaande datasets om naadloze interacties in conversaties met meerdere rondes en meerdere afbeeldingen te garanderen. In vergelijking met bestaande frameworks toont DeepSpeed-VisualChat superieure schaalbaarheid tot een taalmodelgrootte van 70B parameters, wat een significante vooruitgang vertegenwoordigt in multimodale taalmodellen en een solide basis legt voor toekomstige verkenningen.
English
Most of the existing multi-modal models, hindered by their incapacity to adeptly manage interleaved image-and-text inputs in multi-image, multi-round dialogues, face substantial constraints in resource allocation for training and data accessibility, impacting their adaptability and scalability across varied interaction realms. To address this, we present the DeepSpeed-VisualChat framework, designed to optimize Large Language Models (LLMs) by incorporating multi-modal capabilities, with a focus on enhancing the proficiency of Large Vision and Language Models in handling interleaved inputs. Our framework is notable for (1) its open-source support for multi-round and multi-image dialogues, (2) introducing an innovative multi-modal causal attention mechanism, and (3) utilizing data blending techniques on existing datasets to assure seamless interactions in multi-round, multi-image conversations. Compared to existing frameworks, DeepSpeed-VisualChat shows superior scalability up to 70B parameter language model size, representing a significant advancement in multi-modal language models and setting a solid foundation for future explorations.
PDF222February 8, 2026