ChatPaper.aiChatPaper

Online-Kontinuierliches Lernen ohne Speicherbeschränkung

Online Continual Learning Without the Storage Constraint

May 16, 2023
Autoren: Ameya Prabhu, Zhipeng Cai, Puneet Dokania, Philip Torr, Vladlen Koltun, Ozan Sener
cs.AI

Zusammenfassung

Die Forschung zum Online-Continual-Learning (OCL) hat sich bisher hauptsächlich darauf konzentriert, katastrophales Vergessen zu minimieren, wobei die Speicherzuweisung während der gesamten Lebensdauer des Agenten fest und begrenzt war. Die zunehmende Erschwinglichkeit von Datenspeicherung verdeutlicht jedoch eine breite Palette von Anwendungen, die diesen Annahmen nicht entsprechen. In diesen Fällen liegt das Hauptaugenmerk auf der Verwaltung der Rechenkosten anstelle des Speichers. In diesem Artikel konzentrieren wir uns auf solche Szenarien und untersuchen das Problem des Online-Continual-Learnings, indem wir Speicherbeschränkungen lockern und einen festen, begrenzten wirtschaftlichen Budgetrahmen betonen. Wir stellen einen einfachen Algorithmus vor, der den gesamten eingehenden Datenstrom unter geringen Rechenbudgets kompakt speichern und nutzen kann, indem ein kNN-Klassifikator und universelle vortrainierte Merkmalsextraktoren verwendet werden. Unser Algorithmus bietet eine für Continual Learning attraktive Konsistenzeigenschaft: Er wird niemals zuvor gesehene Daten vergessen. Wir setzen einen neuen Maßstab auf zwei groß angelegten OCL-Datensätzen: Continual LOCalization (CLOC), der 39 Millionen Bilder über 712 Klassen umfasst, und Continual Google Landmarks V2 (CGLM), der 580.000 Bilder über 10.788 Klassen enthält – und übertreffen dabei Methoden mit weitaus höheren Rechenbudgets in Bezug auf die Reduzierung des katastrophalen Vergessens vergangener Daten und die schnelle Anpassung an sich rasch ändernde Datenströme. Wir stellen Code zur Reproduktion unserer Ergebnisse unter https://github.com/drimpossible/ACM bereit.
English
Online continual learning (OCL) research has primarily focused on mitigating catastrophic forgetting with fixed and limited storage allocation throughout the agent's lifetime. However, the growing affordability of data storage highlights a broad range of applications that do not adhere to these assumptions. In these cases, the primary concern lies in managing computational expenditures rather than storage. In this paper, we target such settings, investigating the online continual learning problem by relaxing storage constraints and emphasizing fixed, limited economical budget. We provide a simple algorithm that can compactly store and utilize the entirety of the incoming data stream under tiny computational budgets using a kNN classifier and universal pre-trained feature extractors. Our algorithm provides a consistency property attractive to continual learning: It will never forget past seen data. We set a new state of the art on two large-scale OCL datasets: Continual LOCalization (CLOC), which has 39M images over 712 classes, and Continual Google Landmarks V2 (CGLM), which has 580K images over 10,788 classes -- beating methods under far higher computational budgets than ours in terms of both reducing catastrophic forgetting of past data and quickly adapting to rapidly changing data streams. We provide code to reproduce our results at https://github.com/drimpossible/ACM.
PDF20December 15, 2024