ChatPaper.aiChatPaper

Comprimeren of niet comprimeren - Zelfsupervisie leren en informatietheorie: een overzicht

To Compress or Not to Compress- Self-Supervised Learning and Information Theory: A Review

April 19, 2023
Auteurs: Ravid Shwartz-Ziv, Yann LeCun
cs.AI

Samenvatting

Diepe neurale netwerken hebben opmerkelijke prestaties getoond in taken voor gesuperviseerd leren, maar vereisen grote hoeveelheden gelabelde data. Zelfsupervisie biedt een alternatief paradigma, waardoor het model kan leren van data zonder expliciete labels. Informatietheorie heeft een cruciale rol gespeeld in het begrijpen en optimaliseren van diepe neurale netwerken. Specifiek is het informatiebottleneck-principe toegepast om de afweging tussen compressie en het behoud van relevante informatie in gesuperviseerde settings te optimaliseren. Echter, het optimale informatie-objectief in zelfsupervisie blijft onduidelijk. In dit artikel bespreken we verschillende benaderingen van zelfsupervisie vanuit een informatie-theoretisch perspectief en presenteren we een uniform raamwerk dat het informatie-theoretische leerprobleem in zelfsupervisie formaliseert. We integreren bestaand onderzoek in een samenhangend raamwerk, onderzoeken recente zelfsupervisie-methoden, en identificeren onderzoeksmogelijkheden en uitdagingen. Daarnaast bespreken we de empirische meting van informatie-theoretische grootheden en hun schatters. Dit artikel biedt een uitgebreid overzicht van het snijvlak tussen informatietheorie, zelfsupervisie en diepe neurale netwerken.
English
Deep neural networks have demonstrated remarkable performance in supervised learning tasks but require large amounts of labeled data. Self-supervised learning offers an alternative paradigm, enabling the model to learn from data without explicit labels. Information theory has been instrumental in understanding and optimizing deep neural networks. Specifically, the information bottleneck principle has been applied to optimize the trade-off between compression and relevant information preservation in supervised settings. However, the optimal information objective in self-supervised learning remains unclear. In this paper, we review various approaches to self-supervised learning from an information-theoretic standpoint and present a unified framework that formalizes the self-supervised information-theoretic learning problem. We integrate existing research into a coherent framework, examine recent self-supervised methods, and identify research opportunities and challenges. Moreover, we discuss empirical measurement of information-theoretic quantities and their estimators. This paper offers a comprehensive review of the intersection between information theory, self-supervised learning, and deep neural networks.
PDF60February 21, 2026