ChatPaper.aiChatPaper

시각적 표현 학습을 위한 영역 기반 클러스터 분별

Region-based Cluster Discrimination for Visual Representation Learning

July 26, 2025
저자: Yin Xie, Kaicheng Yang, Xiang An, Kun Wu, Yongle Zhao, Weimo Deng, Zimin Ran, Yumeng Wang, Ziyong Feng, Roy Miles, Ismail Elezi, Jiankang Deng
cs.AI

초록

시각적 표현 학습은 다양한 다운스트림 작업의 기초가 됩니다. 최근 CLIP과 SigLIP과 같은 시각-언어 대조 모델들이 대규모 시각-언어 정렬을 통해 인상적인 제로샷 성능을 달성했지만, 이들의 전역적 표현에 대한 의존성은 grounding, OCR, 세분화와 같은 밀집 예측 작업에서의 효과를 제한합니다. 이러한 격차를 해결하기 위해, 우리는 지역 수준의 시각적 및 OCR 능력을 향상시키는 새로운 방법인 Region-Aware Cluster Discrimination (RICE)을 소개합니다. 먼저, 우리는 10억 규모의 후보 지역 데이터셋을 구축하고, 풍부한 지역 의미를 추출하기 위한 Region Transformer 레이어를 제안합니다. 더 나아가, 우리는 단일 분류 프레임워크 내에서 객체와 OCR 학습을 동시에 지원하는 통합 지역 클러스터 판별 손실을 설계하여, 대규모 데이터에 대한 효율적이고 확장 가능한 분산 학습을 가능하게 합니다. 광범위한 실험 결과, RICE는 세분화, 밀집 탐지, 그리고 Multimodal Large Language Models (MLLMs)을 위한 시각적 인지 작업에서 이전 방법들을 꾸준히 능가하는 것으로 나타났습니다. 사전 학습된 모델은 https://github.com/deepglint/MVT에서 공개되었습니다.
English
Learning visual representations is foundational for a broad spectrum of downstream tasks. Although recent vision-language contrastive models, such as CLIP and SigLIP, have achieved impressive zero-shot performance via large-scale vision-language alignment, their reliance on global representations constrains their effectiveness for dense prediction tasks, such as grounding, OCR, and segmentation. To address this gap, we introduce Region-Aware Cluster Discrimination (RICE), a novel method that enhances region-level visual and OCR capabilities. We first construct a billion-scale candidate region dataset and propose a Region Transformer layer to extract rich regional semantics. We further design a unified region cluster discrimination loss that jointly supports object and OCR learning within a single classification framework, enabling efficient and scalable distributed training on large-scale data. Extensive experiments show that RICE consistently outperforms previous methods on tasks, including segmentation, dense detection, and visual perception for Multimodal Large Language Models (MLLMs). The pre-trained models have been released at https://github.com/deepglint/MVT.
PDF153July 29, 2025