ChatPaper.aiChatPaper

Apprendimento Continuo Online Senza il Vincolo di Memorizzazione

Online Continual Learning Without the Storage Constraint

May 16, 2023
Autori: Ameya Prabhu, Zhipeng Cai, Puneet Dokania, Philip Torr, Vladlen Koltun, Ozan Sener
cs.AI

Abstract

La ricerca sull'apprendimento continuo online (OCL) si è principalmente concentrata sulla mitigazione dell'oblio catastrofico con un'allocazione di memoria fissa e limitata durante l'intera vita dell'agente. Tuttavia, la crescente accessibilità economica dello spazio di archiviazione evidenzia un'ampia gamma di applicazioni che non rispettano queste ipotesi. In questi casi, la preoccupazione principale risiede nella gestione delle spese computazionali piuttosto che nello spazio di archiviazione. In questo articolo, ci concentriamo su tali contesti, esplorando il problema dell'apprendimento continuo online allentando i vincoli di archiviazione e enfatizzando un budget economico fisso e limitato. Proponiamo un algoritmo semplice che può memorizzare in modo compatto e utilizzare l'intero flusso di dati in arrivo con budget computazionali ridotti, utilizzando un classificatore kNN e estrattori di caratteristiche pre-addestrati universali. Il nostro algoritmo offre una proprietà di coerenza attraente per l'apprendimento continuo: non dimenticherà mai i dati visti in passato. Stabiliamo un nuovo stato dell'arte su due grandi dataset OCL: Continual LOCalization (CLOC), che contiene 39 milioni di immagini su 712 classi, e Continual Google Landmarks V2 (CGLM), che contiene 580.000 immagini su 10.788 classi, superando metodi con budget computazionali molto più elevati del nostro sia in termini di riduzione dell'oblio catastrofico dei dati passati che di adattamento rapido a flussi di dati in rapida evoluzione. Forniamo il codice per riprodurre i nostri risultati all'indirizzo https://github.com/drimpossible/ACM.
English
Online continual learning (OCL) research has primarily focused on mitigating catastrophic forgetting with fixed and limited storage allocation throughout the agent's lifetime. However, the growing affordability of data storage highlights a broad range of applications that do not adhere to these assumptions. In these cases, the primary concern lies in managing computational expenditures rather than storage. In this paper, we target such settings, investigating the online continual learning problem by relaxing storage constraints and emphasizing fixed, limited economical budget. We provide a simple algorithm that can compactly store and utilize the entirety of the incoming data stream under tiny computational budgets using a kNN classifier and universal pre-trained feature extractors. Our algorithm provides a consistency property attractive to continual learning: It will never forget past seen data. We set a new state of the art on two large-scale OCL datasets: Continual LOCalization (CLOC), which has 39M images over 712 classes, and Continual Google Landmarks V2 (CGLM), which has 580K images over 10,788 classes -- beating methods under far higher computational budgets than ours in terms of both reducing catastrophic forgetting of past data and quickly adapting to rapidly changing data streams. We provide code to reproduce our results at https://github.com/drimpossible/ACM.
PDF20December 15, 2024