LLM2CLIP: Krachtig Taalmodel Ontgrendelt Rijkere Visuele RepresentatieLLM2CLIP: Powerful Language Model Unlock Richer Visual Representation
CLIP is vandaag een van de belangrijkste multimodale fundamentele modellen. Wat drijft de mogelijkheden van CLIP? De rijke toezichtsignalen die worden geleverd door natuurlijke taal, de drager van menselijke kennis, vormen een krachtige cross-modale representatieruimte. Echter, met de snelle vooruitgang in grote taalmodellen (LLM's) zoals GPT-4 en LLaMA, worden de grenzen van taalbegrip en -generatie voortdurend verlegd. Dit roept een intrigerende vraag op: kunnen de mogelijkheden van LLM's worden benut om multimodale representatie-leren verder te verbeteren? De potentiële voordelen van het opnemen van LLM's in CLIP zijn duidelijk. De sterke tekstuele begripsvaardigheden van LLM's kunnen fundamenteel de mogelijkheid van CLIP verbeteren om afbeeldingsbijschriften te verwerken, waardoor de mogelijkheid om lange en complexe teksten te verwerken aanzienlijk wordt verbeterd, een bekende beperking van de standaard CLIP. Bovendien worden LLM's getraind op een uitgebreid corpus van tekst, waarbij ze open-wereldkennis bezitten. Dit stelt hen in staat om bijschriftinformatie uit te breiden tijdens de training, waardoor de efficiëntie van het leerproces wordt verhoogd. In dit artikel stellen we LLM2CLIP voor, een nieuwe benadering die de kracht van LLM's om de potentie van CLIP te ontsluiten omarmt. Door de LLM af te stemmen in de bijschriftruimte met contrastief leren, extraheren we zijn tekstuele mogelijkheden in de uitvoer-embeddings, wat de tekstuele onderscheidbaarheid van de uitvoerlaag aanzienlijk verbetert. Vervolgens ontwerpen we een efficiënt trainingsproces waarbij de afgestemde LLM fungeert als een krachtige leraar voor de visuele encoder van CLIP. Dankzij de aanwezigheid van de LLM kunnen we nu langere en complexere bijschriften opnemen zonder beperkt te worden door de contextvenster- en vermogensbeperkingen van de tekstencoder van de standaard CLIP. Onze experimenten tonen aan dat deze benadering aanzienlijke verbeteringen brengt in cross-modale taken.