Online Continu Leren Zonder de Opslagbeperking
Online Continual Learning Without the Storage Constraint
May 16, 2023
Auteurs: Ameya Prabhu, Zhipeng Cai, Puneet Dokania, Philip Torr, Vladlen Koltun, Ozan Sener
cs.AI
Samenvatting
Onderzoek naar online continu leren (OCL) heeft zich voornamelijk gericht op het beperken van catastrofaal vergeten met vaste en beperkte opslagtoewijzing gedurende de levensduur van het systeem. De toenemende betaalbaarheid van gegevensopslag benadrukt echter een breed scala aan toepassingen die niet aan deze aannames voldoen. In deze gevallen ligt de primaire zorg bij het beheren van rekenkundige uitgaven in plaats van opslag. In dit artikel richten we ons op dergelijke situaties, waarbij we het probleem van online continu leren onderzoeken door opslagbeperkingen te versoepelen en de nadruk te leggen op een vast, beperkt economisch budget. We presenteren een eenvoudig algoritme dat de volledige binnenkomende gegevensstroom compact kan opslaan en benutten onder zeer kleine rekenkundige budgetten, met behulp van een kNN-classificator en universele vooraf getrainde kenmerkextractors. Ons algoritme biedt een consistentie-eigenschap die aantrekkelijk is voor continu leren: het zal nooit eerder geziene gegevens vergeten. We vestigen een nieuwe standaard op twee grootschalige OCL-datasets: Continual LOCalization (CLOC), met 39 miljoen afbeeldingen over 712 klassen, en Continual Google Landmarks V2 (CGLM), met 580.000 afbeeldingen over 10.788 klassen – waarbij we methoden verslaan die onder veel hogere rekenkundige budgetten werken, zowel in termen van het verminderen van catastrofaal vergeten van oude gegevens als het snel aanpassen aan snel veranderende gegevensstromen. We bieden code om onze resultaten te reproduceren op https://github.com/drimpossible/ACM.
English
Online continual learning (OCL) research has primarily focused on mitigating
catastrophic forgetting with fixed and limited storage allocation throughout
the agent's lifetime. However, the growing affordability of data storage
highlights a broad range of applications that do not adhere to these
assumptions. In these cases, the primary concern lies in managing computational
expenditures rather than storage. In this paper, we target such settings,
investigating the online continual learning problem by relaxing storage
constraints and emphasizing fixed, limited economical budget. We provide a
simple algorithm that can compactly store and utilize the entirety of the
incoming data stream under tiny computational budgets using a kNN classifier
and universal pre-trained feature extractors. Our algorithm provides a
consistency property attractive to continual learning: It will never forget
past seen data. We set a new state of the art on two large-scale OCL datasets:
Continual LOCalization (CLOC), which has 39M images over 712 classes, and
Continual Google Landmarks V2 (CGLM), which has 580K images over 10,788 classes
-- beating methods under far higher computational budgets than ours in terms of
both reducing catastrophic forgetting of past data and quickly adapting to
rapidly changing data streams. We provide code to reproduce our results at
https://github.com/drimpossible/ACM.