ChatPaper.aiChatPaper

Geloof en Lot: Grenzen van Transformers op Compositionaliteit

Faith and Fate: Limits of Transformers on Compositionality

May 29, 2023
Auteurs: Nouha Dziri, Ximing Lu, Melanie Sclar, Xiang Lorraine Li, Liwei Jian, Bill Yuchen Lin, Peter West, Chandra Bhagavatula, Ronan Le Bras, Jena D. Hwang, Soumya Sanyal, Sean Welleck, Xiang Ren, Allyson Ettinger, Zaid Harchaoui, Yejin Choi
cs.AI

Samenvatting

Transformer grote taalmodellen (LLMs) hebben bewondering opgewekt vanwege hun uitzonderlijke prestaties op taken die ingewikkeld, meerstaps redeneren vereisen. Toch laten deze modellen tegelijkertijd fouten zien op verrassend triviale problemen. Dit roept de vraag op: zijn deze fouten toevallig, of wijzen ze op meer substantiële beperkingen? In een poging om Transformers te ontrafelen, onderzoeken we de grenzen van deze modellen aan de hand van drie representatieve compositionele taken — vermenigvuldiging van meerdere cijfers, logische roosterpuzzels en een klassiek dynamisch programmeerprobleem. Deze taken vereisen het opdelen van problemen in substappen en het samenvoegen van deze stappen tot een precies antwoord. We formuleren compositionele taken als rekenkundige grafieken om het complexiteitsniveau systematisch te kwantificeren en breken redeneerstappen op in tussenliggende subprocedures. Onze empirische bevindingen suggereren dat Transformers compositionele taken oplossen door meerstaps compositioneel redeneren te reduceren tot lineaire subgraafovereenkomsten, zonder noodzakelijkerwijs systematische probleemoplossende vaardigheden te ontwikkelen. Om ons empirische onderzoek af te ronden, bieden we theoretische argumenten over abstracte meerstaps redeneerproblemen die benadrukken hoe de prestaties van Transformers snel zullen afnemen bij toenemende taakcomplexiteit.
English
Transformer large language models (LLMs) have sparked admiration for their exceptional performance on tasks that demand intricate multi-step reasoning. Yet, these models simultaneously show failures on surprisingly trivial problems. This begs the question: Are these errors incidental, or do they signal more substantial limitations? In an attempt to demystify Transformers, we investigate the limits of these models across three representative compositional tasks -- multi-digit multiplication, logic grid puzzles, and a classic dynamic programming problem. These tasks require breaking problems down into sub-steps and synthesizing these steps into a precise answer. We formulate compositional tasks as computation graphs to systematically quantify the level of complexity, and break down reasoning steps into intermediate sub-procedures. Our empirical findings suggest that Transformers solve compositional tasks by reducing multi-step compositional reasoning into linearized subgraph matching, without necessarily developing systematic problem-solving skills. To round off our empirical study, we provide theoretical arguments on abstract multi-step reasoning problems that highlight how Transformers' performance will rapidly decay with increased task complexity.
PDF71February 8, 2026