ChatPaper.aiChatPaper

Schaalbaarheid van MLP's: Een Verhaal over Inductieve Bias

Scaling MLPs: A Tale of Inductive Bias

June 23, 2023
Auteurs: Gregor Bachmann, Sotiris Anagnostidis, Thomas Hofmann
cs.AI

Samenvatting

In dit werk herzien we het meest fundamentele bouwblok in deep learning, het multi-layer perceptron (MLP), en onderzoeken we de grenzen van zijn prestaties bij visuele taken. Empirische inzichten in MLPs zijn om meerdere redenen belangrijk. (1) Gezien het recente narratief "minder inductieve bias is beter", dat populair is geworden door de opkomst van transformers die convolutionele modellen overtreffen, is het natuurlijk om de grenzen van deze hypothese te verkennen. Daartoe bieden MLPs een ideale testomgeving, aangezien ze volledig vrij zijn van elke inductieve bias. (2) MLPs zijn vrijwel uitsluitend de hoofdrolspeler geweest in de deep learning-theorieliteratuur vanwege hun wiskundige eenvoud, en dienen als een proxy om empirische fenomenen te verklaren die worden waargenomen bij complexere architecturen. Verrassend genoeg zijn experimentele gegevenspunten voor MLPs zeer moeilijk te vinden in de literatuur, vooral wanneer ze gekoppeld zijn aan grote pre-trainingsprotocollen. Deze discrepantie tussen praktijk en theorie is zorgwekkend: Reflecteren MLPs de empirische vooruitgang die wordt getoond door praktische modellen? Of moeten theoretici de rol van MLPs als proxy heroverwegen? Wij bieden inzichten in beide aspecten. We laten zien dat de prestaties van MLPs drastisch verbeteren met schaal (93% op CIFAR10, 79% op CIFAR100, 69% op TinyImageNet), wat benadrukt dat het ontbreken van inductieve bias inderdaad kan worden gecompenseerd. We observeren dat MLPs het gedrag van hun moderne tegenhangers trouw nabootsen, waarbij sommige componenten in de leeromgeving echter verrassend sterkere of onverwachte gedragingen vertonen. Door hun inherente computationele efficiëntie worden grote pre-trainingsexperimenten toegankelijker voor academische onderzoekers. Al onze experimenten werden uitgevoerd op een enkele GPU.
English
In this work we revisit the most fundamental building block in deep learning, the multi-layer perceptron (MLP), and study the limits of its performance on vision tasks. Empirical insights into MLPs are important for multiple reasons. (1) Given the recent narrative "less inductive bias is better", popularized due to transformers eclipsing convolutional models, it is natural to explore the limits of this hypothesis. To that end, MLPs offer an ideal test bed, being completely free of any inductive bias. (2) MLPs have almost exclusively been the main protagonist in the deep learning theory literature due to their mathematical simplicity, serving as a proxy to explain empirical phenomena observed for more complex architectures. Surprisingly, experimental datapoints for MLPs are very difficult to find in the literature, especially when coupled with large pre-training protocols. This discrepancy between practice and theory is worrying: Do MLPs reflect the empirical advances exhibited by practical models? Or do theorists need to rethink the role of MLPs as a proxy? We provide insights into both these aspects. We show that the performance of MLPs drastically improves with scale (93% on CIFAR10, 79% on CIFAR100, 69% on TinyImageNet), highlighting that lack of inductive bias can indeed be compensated. We observe that MLPs mimic the behaviour of their modern counterparts faithfully, with some components in the learning setting however surprisingly exhibiting stronger or unexpected behaviours. Due to their inherent computational efficiency, large pre-training experiments become more accessible for academic researchers. All of our experiments were run on a single GPU.
PDF160December 15, 2024