EgoVLPv2: バックボーンにおける融合を伴うエゴセントリック・ビデオ言語事前学習
EgoVLPv2: Egocentric Video-Language Pre-training with Fusion in the Backbone
July 11, 2023
著者: Shraman Pramanick, Yale Song, Sayan Nag, Kevin Qinghong Lin, Hardik Shah, Mike Zheng Shou, Rama Chellappa, Pengchuan Zhang
cs.AI
要旨
ビデオと言語の事前学習(VLP)は、様々な視覚と言語タスクに汎化する能力から、その重要性が高まっています。しかし、既存のエゴセントリックVLPフレームワークは、ビデオと言語のエンコーダを分離しており、タスク固有のクロスモーダル情報はファインチューニング中にのみ学習されるため、統一システムの開発が制限されています。本研究では、第2世代のエゴセントリックビデオ言語事前学習(EgoVLPv2)を紹介します。これは、前世代から大幅に改善されたもので、ビデオと言語のバックボーンに直接クロスモーダル融合を組み込んでいます。EgoVLPv2は、事前学習中に強力なビデオテキスト表現を学習し、クロスモーダルアテンションモジュールを再利用して、異なる下流タスクを柔軟かつ効率的にサポートし、ファインチューニングコストを削減します。さらに、提案されたバックボーン内融合戦略は、追加の融合専用レイヤーを積み重ねるよりも軽量で計算効率が高いです。幅広いVLタスクにおける大規模な実験により、EgoVLPv2の有効性が実証され、全ての下流タスクにおいて強力なベースラインを一貫して上回る最先端の性能を達成しました。プロジェクトページはhttps://shramanpramanick.github.io/EgoVLPv2/でご覧いただけます。
English
Video-language pre-training (VLP) has become increasingly important due to
its ability to generalize to various vision and language tasks. However,
existing egocentric VLP frameworks utilize separate video and language encoders
and learn task-specific cross-modal information only during fine-tuning,
limiting the development of a unified system. In this work, we introduce the
second generation of egocentric video-language pre-training (EgoVLPv2), a
significant improvement from the previous generation, by incorporating
cross-modal fusion directly into the video and language backbones. EgoVLPv2
learns strong video-text representation during pre-training and reuses the
cross-modal attention modules to support different downstream tasks in a
flexible and efficient manner, reducing fine-tuning costs. Moreover, our
proposed fusion in the backbone strategy is more lightweight and
compute-efficient than stacking additional fusion-specific layers. Extensive
experiments on a wide range of VL tasks demonstrate the effectiveness of
EgoVLPv2 by achieving consistent state-of-the-art performance over strong
baselines across all downstream. Our project page can be found at
https://shramanpramanick.github.io/EgoVLPv2/.