Aprendizaje Continuo en Línea Sin la Restricción de Almacenamiento
Online Continual Learning Without the Storage Constraint
May 16, 2023
Autores: Ameya Prabhu, Zhipeng Cai, Puneet Dokania, Philip Torr, Vladlen Koltun, Ozan Sener
cs.AI
Resumen
La investigación en aprendizaje continuo en línea (OCL, por sus siglas en inglés) se ha centrado principalmente en mitigar el olvido catastrófico con una asignación de almacenamiento fija y limitada durante toda la vida del agente. Sin embargo, la creciente asequibilidad del almacenamiento de datos resalta una amplia gama de aplicaciones que no se ajustan a estos supuestos. En estos casos, la principal preocupación radica en gestionar los gastos computacionales en lugar del almacenamiento. En este artículo, nos enfocamos en tales escenarios, investigando el problema del aprendizaje continuo en línea al relajar las restricciones de almacenamiento y enfatizar un presupuesto económico fijo y limitado. Proporcionamos un algoritmo simple que puede almacenar y utilizar de manera compacta la totalidad del flujo de datos entrante bajo presupuestos computacionales mínimos, utilizando un clasificador kNN y extractores de características preentrenados universales. Nuestro algoritmo ofrece una propiedad de consistencia atractiva para el aprendizaje continuo: nunca olvidará los datos vistos en el pasado. Establecemos un nuevo estado del arte en dos conjuntos de datos OCL a gran escala: Continual LOCalization (CLOC), que tiene 39 millones de imágenes en 712 clases, y Continual Google Landmarks V2 (CGLM), que tiene 580 mil imágenes en 10,788 clases, superando a métodos con presupuestos computacionales mucho más altos que el nuestro en términos de reducir el olvido catastrófico de datos pasados y adaptarse rápidamente a flujos de datos que cambian velozmente. Proporcionamos el código para reproducir nuestros resultados en https://github.com/drimpossible/ACM.
English
Online continual learning (OCL) research has primarily focused on mitigating
catastrophic forgetting with fixed and limited storage allocation throughout
the agent's lifetime. However, the growing affordability of data storage
highlights a broad range of applications that do not adhere to these
assumptions. In these cases, the primary concern lies in managing computational
expenditures rather than storage. In this paper, we target such settings,
investigating the online continual learning problem by relaxing storage
constraints and emphasizing fixed, limited economical budget. We provide a
simple algorithm that can compactly store and utilize the entirety of the
incoming data stream under tiny computational budgets using a kNN classifier
and universal pre-trained feature extractors. Our algorithm provides a
consistency property attractive to continual learning: It will never forget
past seen data. We set a new state of the art on two large-scale OCL datasets:
Continual LOCalization (CLOC), which has 39M images over 712 classes, and
Continual Google Landmarks V2 (CGLM), which has 580K images over 10,788 classes
-- beating methods under far higher computational budgets than ours in terms of
both reducing catastrophic forgetting of past data and quickly adapting to
rapidly changing data streams. We provide code to reproduce our results at
https://github.com/drimpossible/ACM.