ChatPaper.aiChatPaper

Contextbewust Meta-Leren

Context-Aware Meta-Learning

October 17, 2023
Auteurs: Christopher Fifty, Dennis Duan, Ronald G. Junkins, Ehsan Amid, Jure Leskovec, Christopher Ré, Sebastian Thrun
cs.AI

Samenvatting

Grote Taalmodellen zoals ChatGPT tonen een opmerkelijke capaciteit om nieuwe concepten te leren tijdens inferentie zonder enige fine-tuning. Visuele modellen die zijn getraind om nieuwe objecten te detecteren tijdens inferentie, zijn echter niet in staat gebleken om dit vermogen na te bootsen, en presteren ofwel slecht of vereisen meta-training en/of fine-tuning op vergelijkbare objecten. In dit werk stellen we een meta-leeralgoritme voor dat Grote Taalmodellen nabootst door nieuwe visuele concepten te leren tijdens inferentie zonder fine-tuning. Onze aanpak maakt gebruik van een bevroren, vooraf getrainde feature extractor, en analoog aan in-context learning, herformuleert het meta-leren als sequentiemodellering over datapunten met bekende labels en een testdatapunt met een onbekend label. Op 8 van de 11 meta-learning benchmarks overtreft of evenaart onze aanpak — zonder meta-training of fine-tuning — het state-of-the-art algoritme, P>M>F, dat op deze benchmarks is getraind.
English
Large Language Models like ChatGPT demonstrate a remarkable capacity to learn new concepts during inference without any fine-tuning. However, visual models trained to detect new objects during inference have been unable to replicate this ability, and instead either perform poorly or require meta-training and/or fine-tuning on similar objects. In this work, we propose a meta-learning algorithm that emulates Large Language Models by learning new visual concepts during inference without fine-tuning. Our approach leverages a frozen pre-trained feature extractor, and analogous to in-context learning, recasts meta-learning as sequence modeling over datapoints with known labels and a test datapoint with an unknown label. On 8 out of 11 meta-learning benchmarks, our approach -- without meta-training or fine-tuning -- exceeds or matches the state-of-the-art algorithm, P>M>F, which is meta-trained on these benchmarks.
PDF171December 15, 2024