ChatPaper.aiChatPaper

Fe y Destino: Límites de los Transformadores en la Composiciónalidad

Faith and Fate: Limits of Transformers on Compositionality

May 29, 2023
Autores: Nouha Dziri, Ximing Lu, Melanie Sclar, Xiang Lorraine Li, Liwei Jian, Bill Yuchen Lin, Peter West, Chandra Bhagavatula, Ronan Le Bras, Jena D. Hwang, Soumya Sanyal, Sean Welleck, Xiang Ren, Allyson Ettinger, Zaid Harchaoui, Yejin Choi
cs.AI

Resumen

Los modelos de lenguaje grandes (LLMs) basados en Transformers han generado admiración por su desempeño excepcional en tareas que requieren razonamiento complejo de múltiples pasos. Sin embargo, estos modelos también muestran fallos en problemas sorprendentemente triviales. Esto plantea la pregunta: ¿Son estos errores incidentales, o indican limitaciones más sustanciales? En un intento por desmitificar los Transformers, investigamos los límites de estos modelos en tres tareas composicionales representativas: multiplicación de múltiples dígitos, rompecabezas de lógica en cuadrícula y un problema clásico de programación dinámica. Estas tareas requieren descomponer problemas en subpasos y sintetizar estos pasos en una respuesta precisa. Formulamos las tareas composicionales como grafos de cálculo para cuantificar sistemáticamente el nivel de complejidad y desglosamos los pasos de razonamiento en subprocedimientos intermedios. Nuestros hallazgos empíricos sugieren que los Transformers resuelven tareas composicionales reduciendo el razonamiento composicional de múltiples pasos a una coincidencia linealizada de subgrafos, sin necesariamente desarrollar habilidades sistemáticas de resolución de problemas. Para complementar nuestro estudio empírico, proporcionamos argumentos teóricos sobre problemas abstractos de razonamiento de múltiples pasos que destacan cómo el desempeño de los Transformers decae rápidamente con el aumento de la complejidad de la tarea.
English
Transformer large language models (LLMs) have sparked admiration for their exceptional performance on tasks that demand intricate multi-step reasoning. Yet, these models simultaneously show failures on surprisingly trivial problems. This begs the question: Are these errors incidental, or do they signal more substantial limitations? In an attempt to demystify Transformers, we investigate the limits of these models across three representative compositional tasks -- multi-digit multiplication, logic grid puzzles, and a classic dynamic programming problem. These tasks require breaking problems down into sub-steps and synthesizing these steps into a precise answer. We formulate compositional tasks as computation graphs to systematically quantify the level of complexity, and break down reasoning steps into intermediate sub-procedures. Our empirical findings suggest that Transformers solve compositional tasks by reducing multi-step compositional reasoning into linearized subgraph matching, without necessarily developing systematic problem-solving skills. To round off our empirical study, we provide theoretical arguments on abstract multi-step reasoning problems that highlight how Transformers' performance will rapidly decay with increased task complexity.
PDF71December 15, 2024