ChatPaper.aiChatPaper

Metaaprendizaje Consciente del Contexto

Context-Aware Meta-Learning

October 17, 2023
Autores: Christopher Fifty, Dennis Duan, Ronald G. Junkins, Ehsan Amid, Jure Leskovec, Christopher Ré, Sebastian Thrun
cs.AI

Resumen

Los modelos de lenguaje de gran escala como ChatGPT demuestran una capacidad notable para aprender nuevos conceptos durante la inferencia sin necesidad de ajuste fino. Sin embargo, los modelos visuales entrenados para detectar nuevos objetos durante la inferencia no han podido replicar esta habilidad, y en su lugar, o bien tienen un rendimiento deficiente o requieren meta-entrenamiento y/o ajuste fino en objetos similares. En este trabajo, proponemos un algoritmo de meta-aprendizaje que emula a los modelos de lenguaje de gran escala al aprender nuevos conceptos visuales durante la inferencia sin ajuste fino. Nuestro enfoque aprovecha un extractor de características preentrenado y congelado, y, de manera análoga al aprendizaje en contexto, reformula el meta-aprendizaje como un modelado de secuencias sobre puntos de datos con etiquetas conocidas y un punto de prueba con una etiqueta desconocida. En 8 de 11 benchmarks de meta-aprendizaje, nuestro enfoque —sin meta-entrenamiento ni ajuste fino— supera o iguala al algoritmo de última generación, P>M>F, que está meta-entrenado en estos benchmarks.
English
Large Language Models like ChatGPT demonstrate a remarkable capacity to learn new concepts during inference without any fine-tuning. However, visual models trained to detect new objects during inference have been unable to replicate this ability, and instead either perform poorly or require meta-training and/or fine-tuning on similar objects. In this work, we propose a meta-learning algorithm that emulates Large Language Models by learning new visual concepts during inference without fine-tuning. Our approach leverages a frozen pre-trained feature extractor, and analogous to in-context learning, recasts meta-learning as sequence modeling over datapoints with known labels and a test datapoint with an unknown label. On 8 out of 11 meta-learning benchmarks, our approach -- without meta-training or fine-tuning -- exceeds or matches the state-of-the-art algorithm, P>M>F, which is meta-trained on these benchmarks.
PDF171December 15, 2024