Metaaprendizaje Consciente del Contexto
Context-Aware Meta-Learning
October 17, 2023
Autores: Christopher Fifty, Dennis Duan, Ronald G. Junkins, Ehsan Amid, Jure Leskovec, Christopher Ré, Sebastian Thrun
cs.AI
Resumen
Los modelos de lenguaje de gran escala como ChatGPT demuestran una capacidad notable para aprender nuevos conceptos durante la inferencia sin necesidad de ajuste fino. Sin embargo, los modelos visuales entrenados para detectar nuevos objetos durante la inferencia no han podido replicar esta habilidad, y en su lugar, o bien tienen un rendimiento deficiente o requieren meta-entrenamiento y/o ajuste fino en objetos similares. En este trabajo, proponemos un algoritmo de meta-aprendizaje que emula a los modelos de lenguaje de gran escala al aprender nuevos conceptos visuales durante la inferencia sin ajuste fino. Nuestro enfoque aprovecha un extractor de características preentrenado y congelado, y, de manera análoga al aprendizaje en contexto, reformula el meta-aprendizaje como un modelado de secuencias sobre puntos de datos con etiquetas conocidas y un punto de prueba con una etiqueta desconocida. En 8 de 11 benchmarks de meta-aprendizaje, nuestro enfoque —sin meta-entrenamiento ni ajuste fino— supera o iguala al algoritmo de última generación, P>M>F, que está meta-entrenado en estos benchmarks.
English
Large Language Models like ChatGPT demonstrate a remarkable capacity to learn
new concepts during inference without any fine-tuning. However, visual models
trained to detect new objects during inference have been unable to replicate
this ability, and instead either perform poorly or require meta-training and/or
fine-tuning on similar objects. In this work, we propose a meta-learning
algorithm that emulates Large Language Models by learning new visual concepts
during inference without fine-tuning. Our approach leverages a frozen
pre-trained feature extractor, and analogous to in-context learning, recasts
meta-learning as sequence modeling over datapoints with known labels and a test
datapoint with an unknown label. On 8 out of 11 meta-learning benchmarks, our
approach -- without meta-training or fine-tuning -- exceeds or matches the
state-of-the-art algorithm, P>M>F, which is meta-trained on these benchmarks.