ChatPaper.aiChatPaper

Вера и судьба: пределы трансформеров в композициональности

Faith and Fate: Limits of Transformers on Compositionality

May 29, 2023
Авторы: Nouha Dziri, Ximing Lu, Melanie Sclar, Xiang Lorraine Li, Liwei Jian, Bill Yuchen Lin, Peter West, Chandra Bhagavatula, Ronan Le Bras, Jena D. Hwang, Soumya Sanyal, Sean Welleck, Xiang Ren, Allyson Ettinger, Zaid Harchaoui, Yejin Choi
cs.AI

Аннотация

Трансформеры — крупные языковые модели (LLM) — вызывают восхищение благодаря их выдающейся производительности в задачах, требующих сложного многошагового рассуждения. Однако эти модели одновременно демонстрируют ошибки в удивительно простых задачах. Это ставит вопрос: являются ли эти ошибки случайными или они указывают на более существенные ограничения? В попытке разобраться в природе трансформеров мы исследуем их пределы на трёх репрезентативных композиционных задачах: умножение многозначных чисел, логические головоломки и классическая задача динамического программирования. Эти задачи требуют разбиения проблемы на подзадачи и синтеза промежуточных шагов в точный ответ. Мы формулируем композиционные задачи в виде вычислительных графов, чтобы систематически оценить уровень сложности, и разбиваем шаги рассуждения на промежуточные подпроцедуры. Наши эмпирические результаты показывают, что трансформеры решают композиционные задачи, сводя многошаговое композиционное рассуждение к линейному сопоставлению подграфов, не обязательно развивая систематические навыки решения задач. В завершение нашего эмпирического исследования мы приводим теоретические аргументы на примере абстрактных многошаговых задач, которые показывают, как производительность трансформеров быстро ухудшается с увеличением сложности задачи.
English
Transformer large language models (LLMs) have sparked admiration for their exceptional performance on tasks that demand intricate multi-step reasoning. Yet, these models simultaneously show failures on surprisingly trivial problems. This begs the question: Are these errors incidental, or do they signal more substantial limitations? In an attempt to demystify Transformers, we investigate the limits of these models across three representative compositional tasks -- multi-digit multiplication, logic grid puzzles, and a classic dynamic programming problem. These tasks require breaking problems down into sub-steps and synthesizing these steps into a precise answer. We formulate compositional tasks as computation graphs to systematically quantify the level of complexity, and break down reasoning steps into intermediate sub-procedures. Our empirical findings suggest that Transformers solve compositional tasks by reducing multi-step compositional reasoning into linearized subgraph matching, without necessarily developing systematic problem-solving skills. To round off our empirical study, we provide theoretical arguments on abstract multi-step reasoning problems that highlight how Transformers' performance will rapidly decay with increased task complexity.
PDF71December 15, 2024