PyramidDrop: Beschleunigung Ihrer großen Vision-Language-Modelle durch Pyramid Visual RedundanzreduktionPyramidDrop: Accelerating Your Large Vision-Language Models via Pyramid
Visual Redundancy Reduction
In großen Vision-Language-Modellen (LVLMs) dienen Bilder als Eingaben, die eine Fülle von Informationen enthalten. Wie das Sprichwort "Ein Bild sagt mehr als tausend Worte" andeutet, kann die Darstellung eines einzelnen Bildes in aktuellen LVLMs Hunderte oder sogar Tausende von Tokens erfordern. Dies führt zu erheblichen Rechenkosten, die sich quadratisch erhöhen, wenn die Eingangsauflösung des Bildes zunimmt, was die Effizienz sowohl des Trainings als auch der Inferenz erheblich beeinträchtigt. Frühere Ansätze haben versucht, die Anzahl der Bildtokens entweder vor oder innerhalb der frühen Schichten von LVLMs zu reduzieren. Diese Strategien führen jedoch zwangsläufig zum Verlust wichtiger Bildinformationen, was letztendlich die Modellleistung beeinträchtigt. Um diese Herausforderung anzugehen, führen wir eine empirische Studie durch, die zeigt, dass alle visuellen Tokens für LVLMs in den oberflächlichen Schichten notwendig sind und die Token-Redundanz in den tieferen Schichten des Modells zunehmend ansteigt. Zu diesem Zweck schlagen wir PyramidDrop vor, eine Strategie zur Reduzierung visueller Redundanz für LVLMs, um ihre Effizienz sowohl beim Training als auch bei der Inferenz mit vernachlässigbarem Leistungsverlust zu steigern. Konkret unterteilen wir das LVLM in mehrere Stufen und lassen am Ende jeder Stufe einen Teil der Bildtokens mit einem vordefinierten Verhältnis fallen, wodurch pyramidenartige visuelle Tokens über Modellschichten hinweg entstehen. Das Fallenlassen basiert auf einer leichten Ähnlichkeitsberechnung mit einem vernachlässigbaren zeitlichen Overhead. Umfangreiche Experimente zeigen, dass PyramidDrop eine Beschleunigung der Trainingszeit um 40 % und der Inferenz-FLOPs um 55 % von LLaVA-NeXT mit vergleichbarer Leistung erreichen kann. Darüber hinaus könnte PyramidDrop auch als Plug-and-Play-Strategie für die Beschleunigung der Inferenz ohne Training dienen, mit besserer Leistung und geringeren Inferenzkosten als vergleichbare Ansätze. Wir hoffen, dass die Erkenntnisse und der Ansatz, die durch PyramidDrop eingeführt wurden, zukünftige Forschungen dazu inspirieren werden, die Rolle von Bildtokens in LVLMs weiter zu untersuchen.