SlowFast-LLaVA: Eine robuste, trainingfreie Basislinie für große Sprachmodelle für VideosSlowFast-LLaVA: A Strong Training-Free Baseline for Video Large Language
Models
Wir schlagen SlowFast-LLaVA (kurz SF-LLaVA) vor, ein trainingsfreies Video-Large Language Model (LLM), das detaillierte räumliche Semantik und langfristigen zeitlichen Kontext gemeinsam erfassen kann, ohne das Token-Budget üblicher LLMs zu überschreiten. Dies wird durch die Verwendung eines Zwei-Strom SlowFast-Designs von Eingaben für Video-LLMs erreicht, um Merkmale von ausgewählten Videoframes auf effektive Weise zu aggregieren. Speziell extrahiert der Langsame Pfad Merkmale mit einer niedrigen Bildrate, während so viele räumliche Details wie möglich beibehalten werden (zum Beispiel mit 24x24 Tokens), und der Schnelle Pfad arbeitet mit einer hohen Bildrate, verwendet jedoch einen größeren räumlichen Pooling-Stride (zum Beispiel ein Downsampling von 6x), um sich auf die Bewegungshinweise zu konzentrieren. Dieses Design ermöglicht es uns, sowohl räumliche als auch zeitliche Merkmale angemessen zu erfassen, die für das Verständnis von Details im Video vorteilhaft sind. Experimentelle Ergebnisse zeigen, dass SF-LLaVA bestehende trainingsfreie Methoden auf einer Vielzahl von Videoaufgaben übertrifft. Auf einigen Benchmarks erzielt es vergleichbare oder sogar bessere Leistungen im Vergleich zu State-of-the-Art Video-LLMs, die auf Videodatensätzen feinabgestimmt sind.