ChatPaper.aiChatPaper

DiffCLIP: Differentiële Aandacht Ontmoet CLIP

DiffCLIP: Differential Attention Meets CLIP

March 9, 2025
Auteurs: Hasan Abed Al Kader Hammoud, Bernard Ghanem
cs.AI

Samenvatting

We stellen DiffCLIP voor, een nieuw vision-language model dat het differentiële aandachtmechanisme uitbreidt naar CLIP-architecturen. Differentiële aandacht werd oorspronkelijk ontwikkeld voor grote taalmodellen om relevante context te versterken terwijl ruisachtige informatie wordt geneutraliseerd. In dit werk integreren we dit mechanisme in het duale encoder (beeld en tekst) framework van CLIP. Met minimale extra parameters behaalt DiffCLIP superieure prestaties op beeld-tekst begripstaken. Op zero-shot classificatie, retrieval en robuustheid benchmarks overtreft DiffCLIP consistent baseline CLIP-modellen. Opmerkelijk is dat deze verbeteringen worden gerealiseerd met verwaarloosbare rekenkosten, wat aantoont dat differentiële aandacht multi-modale representaties aanzienlijk kan verbeteren zonder in te leveren op efficiëntie. Code is beschikbaar op https://github.com/hammoudhasan/DiffCLIP.
English
We propose DiffCLIP, a novel vision-language model that extends the differential attention mechanism to CLIP architectures. Differential attention was originally developed for large language models to amplify relevant context while canceling out noisy information. In this work, we integrate this mechanism into CLIP's dual encoder (image and text) framework. With minimal additional parameters, DiffCLIP achieves superior performance on image-text understanding tasks. Across zero-shot classification, retrieval, and robustness benchmarks, DiffCLIP consistently outperforms baseline CLIP models. Notably, these gains come with negligible computational overhead, demonstrating that differential attention can significantly enhance multi-modal representations without sacrificing efficiency. Code can be found at https://github.com/hammoudhasan/DiffCLIP.

Summary

AI-Generated Summary

PDF52March 11, 2025