Aprendizado Contínuo Online Sem a Restrição de Armazenamento
Online Continual Learning Without the Storage Constraint
May 16, 2023
Autores: Ameya Prabhu, Zhipeng Cai, Puneet Dokania, Philip Torr, Vladlen Koltun, Ozan Sener
cs.AI
Resumo
A pesquisa em aprendizado contínuo online (OCL) tem se concentrado principalmente em mitigar o esquecimento catastrófico com alocação fixa e limitada de armazenamento ao longo da vida do agente. No entanto, a crescente acessibilidade do armazenamento de dados destaca uma ampla gama de aplicações que não seguem essas premissas. Nesses casos, a principal preocupação reside em gerenciar os gastos computacionais, em vez do armazenamento. Neste artigo, direcionamos nossa atenção para tais cenários, investigando o problema do aprendizado contínuo online ao relaxar as restrições de armazenamento e enfatizar um orçamento econômico fixo e limitado. Apresentamos um algoritmo simples que pode armazenar de forma compacta e utilizar a totalidade do fluxo de dados recebido sob orçamentos computacionais mínimos, utilizando um classificador kNN e extratoras de características pré-treinadas universais. Nosso algoritmo oferece uma propriedade de consistência atraente para o aprendizado contínuo: ele nunca esquecerá os dados vistos anteriormente. Estabelecemos um novo estado da arte em dois grandes conjuntos de dados OCL: Continual LOCalization (CLOC), que possui 39 milhões de imagens em 712 classes, e Continual Google Landmarks V2 (CGLM), que possui 580 mil imagens em 10.788 classes — superando métodos com orçamentos computacionais muito maiores que o nosso, tanto em termos de redução do esquecimento catastrófico de dados passados quanto na rápida adaptação a fluxos de dados em constante mudança. Disponibilizamos o código para reproduzir nossos resultados em https://github.com/drimpossible/ACM.
English
Online continual learning (OCL) research has primarily focused on mitigating
catastrophic forgetting with fixed and limited storage allocation throughout
the agent's lifetime. However, the growing affordability of data storage
highlights a broad range of applications that do not adhere to these
assumptions. In these cases, the primary concern lies in managing computational
expenditures rather than storage. In this paper, we target such settings,
investigating the online continual learning problem by relaxing storage
constraints and emphasizing fixed, limited economical budget. We provide a
simple algorithm that can compactly store and utilize the entirety of the
incoming data stream under tiny computational budgets using a kNN classifier
and universal pre-trained feature extractors. Our algorithm provides a
consistency property attractive to continual learning: It will never forget
past seen data. We set a new state of the art on two large-scale OCL datasets:
Continual LOCalization (CLOC), which has 39M images over 712 classes, and
Continual Google Landmarks V2 (CGLM), which has 580K images over 10,788 classes
-- beating methods under far higher computational budgets than ours in terms of
both reducing catastrophic forgetting of past data and quickly adapting to
rapidly changing data streams. We provide code to reproduce our results at
https://github.com/drimpossible/ACM.