Zur Untersuchung von Kamerabewegungen in beliebigen VideosTowards Understanding Camera Motions in Any Video
Wir stellen CameraBench vor, einen umfangreichen Datensatz und Benchmark, der entwickelt wurde, um das Verständnis von Kamerabewegungen zu bewerten und zu verbessern. CameraBench besteht aus ~3.000 vielfältigen Internetvideos, die von Experten durch einen strengen mehrstufigen Qualitätskontrollprozess annotiert wurden. Eine unserer Beiträge ist eine Taxonomie von Kamerabewegungsprimitiven, die in Zusammenarbeit mit Kameraleuten entwickelt wurde. Wir stellen beispielsweise fest, dass einige Bewegungen wie „Folgen“ (oder Tracking) das Verständnis von Szeneninhalten wie bewegten Objekten erfordern. Wir führen eine groß angelegte Humanstudie durch, um die Leistung menschlicher Annotationen zu quantifizieren, und zeigen, dass Fachwissen und tutorialbasierte Schulungen die Genauigkeit erheblich steigern können. Beispielsweise könnte ein Anfänger einen Zoom (eine Änderung der intrinsischen Parameter) mit einer Vorwärtsbewegung (eine Änderung der extrinsischen Parameter) verwechseln, kann jedoch geschult werden, um die beiden zu unterscheiden. Mit CameraBench evaluieren wir Structure-from-Motion (SfM)- und Video-Language-Modelle (VLMs) und stellen fest, dass SfM-Modelle Schwierigkeiten haben, semantische Primitiven zu erfassen, die von Szeneninhalten abhängen, während VLMs geometrische Primitiven, die eine präzise Schätzung von Trajektorien erfordern, nur unzureichend erfassen. Anschließend feintunen wir ein generatives VLM auf CameraBench, um das Beste aus beiden Welten zu erreichen, und zeigen seine Anwendungen, einschließlich bewegungsaugmentierter Bildbeschreibung, Video-Frage-Antwort und Video-Text-Retrieval. Wir hoffen, dass unsere Taxonomie, unser Benchmark und unsere Tutorials zukünftige Bemühungen in Richtung des ultimativen Ziels, Kamerabewegungen in jedem Video zu verstehen, vorantreiben werden.