Fé e Destino: Limites dos Transformers na Composicionalidade
Faith and Fate: Limits of Transformers on Compositionality
May 29, 2023
Autores: Nouha Dziri, Ximing Lu, Melanie Sclar, Xiang Lorraine Li, Liwei Jian, Bill Yuchen Lin, Peter West, Chandra Bhagavatula, Ronan Le Bras, Jena D. Hwang, Soumya Sanyal, Sean Welleck, Xiang Ren, Allyson Ettinger, Zaid Harchaoui, Yejin Choi
cs.AI
Resumo
Modelos de linguagem de grande escala (LLMs) baseados em Transformers têm despertado admiração por seu desempenho excepcional em tarefas que exigem raciocínio complexo e multi-etapas. No entanto, esses modelos simultaneamente apresentam falhas em problemas surpreendentemente triviais. Isso levanta a questão: Esses erros são incidentais ou sinalizam limitações mais substanciais? Na tentativa de desmistificar os Transformers, investigamos os limites desses modelos em três tarefas composicionais representativas — multiplicação de múltiplos dígitos, quebra-cabeças de grade lógica e um problema clássico de programação dinâmica. Essas tarefas exigem a decomposição de problemas em subetapas e a síntese dessas etapas em uma resposta precisa. Formulamos tarefas composicionais como grafos de computação para quantificar sistematicamente o nível de complexidade e decompomos etapas de raciocínio em subprocedimentos intermediários. Nossas descobertas empíricas sugerem que os Transformers resolvem tarefas composicionais reduzindo o raciocínio composicional multi-etapas em correspondência linearizada de subgrafos, sem necessariamente desenvolver habilidades sistemáticas de resolução de problemas. Para concluir nosso estudo empírico, apresentamos argumentos teóricos sobre problemas abstratos de raciocínio multi-etapas que destacam como o desempenho dos Transformers decairá rapidamente com o aumento da complexidade da tarefa.
English
Transformer large language models (LLMs) have sparked admiration for their
exceptional performance on tasks that demand intricate multi-step reasoning.
Yet, these models simultaneously show failures on surprisingly trivial
problems. This begs the question: Are these errors incidental, or do they
signal more substantial limitations? In an attempt to demystify Transformers,
we investigate the limits of these models across three representative
compositional tasks -- multi-digit multiplication, logic grid puzzles, and a
classic dynamic programming problem. These tasks require breaking problems down
into sub-steps and synthesizing these steps into a precise answer. We formulate
compositional tasks as computation graphs to systematically quantify the level
of complexity, and break down reasoning steps into intermediate sub-procedures.
Our empirical findings suggest that Transformers solve compositional tasks by
reducing multi-step compositional reasoning into linearized subgraph matching,
without necessarily developing systematic problem-solving skills. To round off
our empirical study, we provide theoretical arguments on abstract multi-step
reasoning problems that highlight how Transformers' performance will rapidly
decay with increased task complexity.