LLM2CLIP: Leistungsstarkes Sprachmodell erschließt reichhaltigere visuelle DarstellungLLM2CLIP: Powerful Language Model Unlock Richer Visual Representation
CLIP ist eines der wichtigsten multimodalen Grundlagenmodelle heute. Was treibt die Fähigkeiten von CLIP an? Die reichen Überwachungssignale, die durch natürliche Sprache bereitgestellt werden, dem Träger menschlichen Wissens, formen einen leistungsstarken kreuzmodalen Darstellungsraum. Mit den raschen Fortschritten bei großen Sprachmodellen wie GPT-4 und LLaMA werden jedoch die Grenzen des Sprachverständnisses und der -erzeugung kontinuierlich erweitert. Dies wirft eine faszinierende Frage auf: Können die Fähigkeiten von Sprachmodellen genutzt werden, um die multimodale Darstellungslernfähigkeit weiter zu verbessern? Die potenziellen Vorteile der Einbeziehung von Sprachmodellen in CLIP sind klar. Das starke textuelle Verständnis von Sprachmodellen kann die Fähigkeit von CLIP, Bildunterschriften zu verarbeiten, grundlegend verbessern und somit seine Fähigkeit zur Verarbeitung langer und komplexer Texte, eine bekannte Einschränkung von Vanilla CLIP, drastisch verbessern. Darüber hinaus werden Sprachmodelle auf einem umfangreichen Textkorpus trainiert, der über Weltwissen verfügt. Dies ermöglicht es ihnen, die Informationen der Bildunterschrift während des Trainings zu erweitern und die Effizienz des Lernprozesses zu steigern. In diesem Papier schlagen wir LLM2CLIP vor, einen neuartigen Ansatz, der die Kraft von Sprachmodellen nutzt, um das Potenzial von CLIP freizusetzen. Durch Feinabstimmung des Sprachmodells im Bereich der Bildunterschriften mit kontrastivem Lernen extrahieren wir seine textuellen Fähigkeiten in die Ausgabeeinbettungen und verbessern signifikant die textuelle Unterscheidbarkeit der Ausgabeebene. Anschließend entwerfen wir einen effizienten Schulungsprozess, bei dem das feinabgestimmte Sprachmodell als leistungsstarker Lehrer für den visuellen Encoder von CLIP fungiert. Dank der Anwesenheit des Sprachmodells können wir jetzt längere und komplexere Bildunterschriften einbeziehen, ohne durch die Kontextfenster- und Fähigkeitsbeschränkungen des Textencoders von Vanilla CLIP eingeschränkt zu sein. Unsere Experimente zeigen, dass dieser Ansatz signifikante Verbesserungen bei kreuzmodalen Aufgaben mit sich bringt.