Онлайн-непрерывное обучение без ограничений на хранение данных
Online Continual Learning Without the Storage Constraint
May 16, 2023
Авторы: Ameya Prabhu, Zhipeng Cai, Puneet Dokania, Philip Torr, Vladlen Koltun, Ozan Sener
cs.AI
Аннотация
Исследования в области онлайн-непрерывного обучения (OCL) в основном сосредоточены на смягчении катастрофического забывания при фиксированном и ограниченном выделении памяти на протяжении всей жизни агента. Однако растущая доступность хранения данных подчеркивает широкий спектр приложений, которые не соответствуют этим предположениям. В таких случаях основная проблема заключается в управлении вычислительными затратами, а не хранением. В данной статье мы рассматриваем подобные сценарии, исследуя проблему онлайн-непрерывного обучения, ослабляя ограничения на хранение и акцентируя внимание на фиксированном, ограниченном экономическом бюджете. Мы предлагаем простой алгоритм, который может компактно хранить и использовать весь поток входящих данных при минимальных вычислительных затратах, используя классификатор kNN и универсальные предобученные экстракторы признаков. Наш алгоритм обеспечивает свойство согласованности, привлекательное для непрерывного обучения: он никогда не забывает ранее увиденные данные. Мы устанавливаем новый уровень современных достижений на двух крупномасштабных наборах данных OCL: Continual LOCalization (CLOC), содержащем 39 миллионов изображений по 712 классам, и Continual Google Landmarks V2 (CGLM), содержащем 580 тысяч изображений по 10 788 классам, — превосходя методы с гораздо более высокими вычислительными бюджетами, чем наш, как в плане снижения катастрофического забывания прошлых данных, так и быстрой адаптации к быстро меняющимся потокам данных. Мы предоставляем код для воспроизведения наших результатов по адресу https://github.com/drimpossible/ACM.
English
Online continual learning (OCL) research has primarily focused on mitigating
catastrophic forgetting with fixed and limited storage allocation throughout
the agent's lifetime. However, the growing affordability of data storage
highlights a broad range of applications that do not adhere to these
assumptions. In these cases, the primary concern lies in managing computational
expenditures rather than storage. In this paper, we target such settings,
investigating the online continual learning problem by relaxing storage
constraints and emphasizing fixed, limited economical budget. We provide a
simple algorithm that can compactly store and utilize the entirety of the
incoming data stream under tiny computational budgets using a kNN classifier
and universal pre-trained feature extractors. Our algorithm provides a
consistency property attractive to continual learning: It will never forget
past seen data. We set a new state of the art on two large-scale OCL datasets:
Continual LOCalization (CLOC), which has 39M images over 712 classes, and
Continual Google Landmarks V2 (CGLM), which has 580K images over 10,788 classes
-- beating methods under far higher computational budgets than ours in terms of
both reducing catastrophic forgetting of past data and quickly adapting to
rapidly changing data streams. We provide code to reproduce our results at
https://github.com/drimpossible/ACM.