ChatPaper.aiChatPaper

Apprentissage Continu en Ligne Sans Contrainte de Stockage

Online Continual Learning Without the Storage Constraint

May 16, 2023
Auteurs: Ameya Prabhu, Zhipeng Cai, Puneet Dokania, Philip Torr, Vladlen Koltun, Ozan Sener
cs.AI

Résumé

La recherche sur l'apprentissage continu en ligne (OCL) s'est principalement concentrée sur l'atténuation de l'oubli catastrophique avec une allocation de stockage fixe et limitée tout au long de la vie de l'agent. Cependant, l'accessibilité croissante du stockage de données met en lumière un large éventail d'applications qui ne respectent pas ces hypothèses. Dans ces cas, la préoccupation principale réside dans la gestion des dépenses de calcul plutôt que dans le stockage. Dans cet article, nous ciblons de tels contextes, en étudiant le problème de l'apprentissage continu en ligne en relâchant les contraintes de stockage et en mettant l'accent sur un budget économique fixe et limité. Nous proposons un algorithme simple capable de stocker de manière compacte et d'utiliser l'intégralité du flux de données entrant sous de minuscules budgets de calcul, en utilisant un classifieur kNN et des extracteurs de caractéristiques pré-entraînés universels. Notre algorithme offre une propriété de cohérence attrayante pour l'apprentissage continu : il n'oubliera jamais les données passées. Nous établissons un nouvel état de l'art sur deux ensembles de données OCL à grande échelle : Continual LOCalization (CLOC), qui contient 39 millions d'images réparties sur 712 classes, et Continual Google Landmarks V2 (CGLM), qui contient 580 000 images réparties sur 10 788 classes -- surpassant des méthodes avec des budgets de calcul bien supérieurs aux nôtres en termes de réduction de l'oubli catastrophique des données passées et d'adaptation rapide aux flux de données en évolution rapide. Nous fournissons le code pour reproduire nos résultats à l'adresse https://github.com/drimpossible/ACM.
English
Online continual learning (OCL) research has primarily focused on mitigating catastrophic forgetting with fixed and limited storage allocation throughout the agent's lifetime. However, the growing affordability of data storage highlights a broad range of applications that do not adhere to these assumptions. In these cases, the primary concern lies in managing computational expenditures rather than storage. In this paper, we target such settings, investigating the online continual learning problem by relaxing storage constraints and emphasizing fixed, limited economical budget. We provide a simple algorithm that can compactly store and utilize the entirety of the incoming data stream under tiny computational budgets using a kNN classifier and universal pre-trained feature extractors. Our algorithm provides a consistency property attractive to continual learning: It will never forget past seen data. We set a new state of the art on two large-scale OCL datasets: Continual LOCalization (CLOC), which has 39M images over 712 classes, and Continual Google Landmarks V2 (CGLM), which has 580K images over 10,788 classes -- beating methods under far higher computational budgets than ours in terms of both reducing catastrophic forgetting of past data and quickly adapting to rapidly changing data streams. We provide code to reproduce our results at https://github.com/drimpossible/ACM.
PDF20December 15, 2024