ProtoGCD: Aprendizado de Protótipos Unificado e Imparcial para Descoberta Generalizada de Categorias
ProtoGCD: Unified and Unbiased Prototype Learning for Generalized Category Discovery
April 2, 2025
Autores: Shijie Ma, Fei Zhu, Xu-Yao Zhang, Cheng-Lin Liu
cs.AI
Resumo
A descoberta generalizada de categorias (GCD) é um problema pragmático, mas pouco explorado, que exige que os modelos agrupem e descubram automaticamente novas categorias, aproveitando amostras rotuladas de classes antigas. O desafio reside no fato de que os dados não rotulados contêm tanto classes antigas quanto novas. Trabalhos iniciais que utilizam pseudo-rotulação com classificadores paramétricos tratam as classes antigas e novas separadamente, o que resulta em uma precisão desequilibrada entre elas. Métodos recentes que empregam aprendizado contrastivo negligenciam potenciais positivos e estão desacoplados do objetivo de agrupamento, levando a representações tendenciosas e resultados subótimos. Para abordar essas questões, introduzimos uma estrutura unificada e imparcial de aprendizado de protótipos, denominada ProtoGCD, na quais as classes antigas e novas são modeladas com protótipos conjuntos e objetivos de aprendizado unificados, {permitindo a modelagem unificada entre classes antigas e novas}. Especificamente, propomos um mecanismo de pseudo-rotulação adaptativa de duplo nível para mitigar o viés de confirmação, juntamente com dois termos de regularização para ajudar coletivamente a aprender representações mais adequadas para a GCD. Além disso, por considerações práticas, elaboramos um critério para estimar o número de novas classes. Adicionalmente, estendemos o ProtoGCD para detectar outliers não vistos, alcançando a unificação em nível de tarefa. Experimentos abrangentes mostram que o ProtoGCD atinge desempenho de ponta tanto em conjuntos de dados genéricos quanto em dados de granularidade fina. O código está disponível em https://github.com/mashijie1028/ProtoGCD.
English
Generalized category discovery (GCD) is a pragmatic but underexplored
problem, which requires models to automatically cluster and discover novel
categories by leveraging the labeled samples from old classes. The challenge is
that unlabeled data contain both old and new classes. Early works leveraging
pseudo-labeling with parametric classifiers handle old and new classes
separately, which brings about imbalanced accuracy between them. Recent methods
employing contrastive learning neglect potential positives and are decoupled
from the clustering objective, leading to biased representations and
sub-optimal results. To address these issues, we introduce a unified and
unbiased prototype learning framework, namely ProtoGCD, wherein old and new
classes are modeled with joint prototypes and unified learning objectives,
{enabling unified modeling between old and new classes}. Specifically, we
propose a dual-level adaptive pseudo-labeling mechanism to mitigate
confirmation bias, together with two regularization terms to collectively help
learn more suitable representations for GCD. Moreover, for practical
considerations, we devise a criterion to estimate the number of new classes.
Furthermore, we extend ProtoGCD to detect unseen outliers, achieving task-level
unification. Comprehensive experiments show that ProtoGCD achieves
state-of-the-art performance on both generic and fine-grained datasets. The
code is available at https://github.com/mashijie1028/ProtoGCD.Summary
AI-Generated Summary