ChatPaper.aiChatPaper

Um Olhar Mais Atento sobre o Aprendizado em Contexto sob Mudanças de Distribuição

A Closer Look at In-Context Learning under Distribution Shifts

May 26, 2023
Autores: Kartik Ahuja, David Lopez-Paz
cs.AI

Resumo

O aprendizado em contexto, uma capacidade que permite a um modelo aprender a partir de exemplos de entrada de forma dinâmica sem a necessidade de atualizações de pesos, é uma característica definidora dos grandes modelos de linguagem. Neste trabalho, seguimos o cenário proposto em (Garg et al., 2022) para compreender melhor a generalidade e as limitações do aprendizado em contexto sob a perspectiva da tarefa simples, porém fundamental, de regressão linear. A questão central que buscamos abordar é: os transformadores são mais habilidosos do que algumas arquiteturas naturais e mais simples na execução do aprendizado em contexto sob diferentes mudanças de distribuição? Para comparar os transformadores, propomos o uso de uma arquitetura simples baseada em Perceptrons Multicamadas (MLPs) baseados em conjuntos. Descobrimos que tanto os transformadores quanto os MLPs baseados em conjuntos exibem aprendizado em contexto em avaliações dentro da distribuição, mas os transformadores se aproximam mais do desempenho dos mínimos quadrados ordinários (OLS). Os transformadores também demonstram maior resiliência a mudanças leves de distribuição, onde os MLPs baseados em conjuntos falham. No entanto, sob mudanças severas de distribuição, as habilidades de aprendizado em contexto de ambos os modelos diminuem.
English
In-context learning, a capability that enables a model to learn from input examples on the fly without necessitating weight updates, is a defining characteristic of large language models. In this work, we follow the setting proposed in (Garg et al., 2022) to better understand the generality and limitations of in-context learning from the lens of the simple yet fundamental task of linear regression. The key question we aim to address is: Are transformers more adept than some natural and simpler architectures at performing in-context learning under varying distribution shifts? To compare transformers, we propose to use a simple architecture based on set-based Multi-Layer Perceptrons (MLPs). We find that both transformers and set-based MLPs exhibit in-context learning under in-distribution evaluations, but transformers more closely emulate the performance of ordinary least squares (OLS). Transformers also display better resilience to mild distribution shifts, where set-based MLPs falter. However, under severe distribution shifts, both models' in-context learning abilities diminish.
PDF10February 7, 2026