ChatPaper.aiChatPaper

Aprendizado Contínuo Online Sem a Restrição de Armazenamento

Online Continual Learning Without the Storage Constraint

May 16, 2023
Autores: Ameya Prabhu, Zhipeng Cai, Puneet Dokania, Philip Torr, Vladlen Koltun, Ozan Sener
cs.AI

Resumo

A pesquisa em aprendizado contínuo online (OCL) tem se concentrado principalmente em mitigar o esquecimento catastrófico com alocação fixa e limitada de armazenamento ao longo da vida do agente. No entanto, a crescente acessibilidade do armazenamento de dados destaca uma ampla gama de aplicações que não seguem essas premissas. Nesses casos, a principal preocupação reside em gerenciar os gastos computacionais, em vez do armazenamento. Neste artigo, direcionamos nossa atenção para tais cenários, investigando o problema do aprendizado contínuo online ao relaxar as restrições de armazenamento e enfatizar um orçamento econômico fixo e limitado. Apresentamos um algoritmo simples que pode armazenar de forma compacta e utilizar a totalidade do fluxo de dados recebido sob orçamentos computacionais mínimos, utilizando um classificador kNN e extratoras de características pré-treinadas universais. Nosso algoritmo oferece uma propriedade de consistência atraente para o aprendizado contínuo: ele nunca esquecerá os dados vistos anteriormente. Estabelecemos um novo estado da arte em dois grandes conjuntos de dados OCL: Continual LOCalization (CLOC), que possui 39 milhões de imagens em 712 classes, e Continual Google Landmarks V2 (CGLM), que possui 580 mil imagens em 10.788 classes — superando métodos com orçamentos computacionais muito maiores que o nosso, tanto em termos de redução do esquecimento catastrófico de dados passados quanto na rápida adaptação a fluxos de dados em constante mudança. Disponibilizamos o código para reproduzir nossos resultados em https://github.com/drimpossible/ACM.
English
Online continual learning (OCL) research has primarily focused on mitigating catastrophic forgetting with fixed and limited storage allocation throughout the agent's lifetime. However, the growing affordability of data storage highlights a broad range of applications that do not adhere to these assumptions. In these cases, the primary concern lies in managing computational expenditures rather than storage. In this paper, we target such settings, investigating the online continual learning problem by relaxing storage constraints and emphasizing fixed, limited economical budget. We provide a simple algorithm that can compactly store and utilize the entirety of the incoming data stream under tiny computational budgets using a kNN classifier and universal pre-trained feature extractors. Our algorithm provides a consistency property attractive to continual learning: It will never forget past seen data. We set a new state of the art on two large-scale OCL datasets: Continual LOCalization (CLOC), which has 39M images over 712 classes, and Continual Google Landmarks V2 (CGLM), which has 580K images over 10,788 classes -- beating methods under far higher computational budgets than ours in terms of both reducing catastrophic forgetting of past data and quickly adapting to rapidly changing data streams. We provide code to reproduce our results at https://github.com/drimpossible/ACM.
PDF20December 15, 2024