Fede e Destino: Limiti dei Trasformatori sulla Composizionalità
Faith and Fate: Limits of Transformers on Compositionality
May 29, 2023
Autori: Nouha Dziri, Ximing Lu, Melanie Sclar, Xiang Lorraine Li, Liwei Jian, Bill Yuchen Lin, Peter West, Chandra Bhagavatula, Ronan Le Bras, Jena D. Hwang, Soumya Sanyal, Sean Welleck, Xiang Ren, Allyson Ettinger, Zaid Harchaoui, Yejin Choi
cs.AI
Abstract
I modelli linguistici di grandi dimensioni basati su architetture Transformer (LLMs) hanno suscitato ammirazione per le loro prestazioni eccezionali in compiti che richiedono un ragionamento complesso e multi-step. Tuttavia, questi stessi modelli mostrano fallimenti in problemi sorprendentemente banali. Ciò solleva una domanda: questi errori sono incidentali, o indicano limitazioni più sostanziali? Nel tentativo di demistificare i Transformer, investigiamo i limiti di questi modelli attraverso tre compiti composizionali rappresentativi: la moltiplicazione di numeri a più cifre, puzzle logici a griglia e un classico problema di programmazione dinamica. Questi compiti richiedono di scomporre i problemi in sotto-passi e di sintetizzare questi passaggi in una risposta precisa. Formuliamo i compiti composizionali come grafi computazionali per quantificare sistematicamente il livello di complessità e scomponiamo i passaggi di ragionamento in sotto-procedure intermedie. I nostri risultati empirici suggeriscono che i Transformer risolvono i compiti composizionali riducendo il ragionamento composizionale multi-step in un matching lineare di sottografi, senza necessariamente sviluppare abilità sistematiche di problem-solving. Per concludere il nostro studio empirico, forniamo argomentazioni teoriche su problemi astratti di ragionamento multi-step che evidenziano come le prestazioni dei Transformer decadano rapidamente con l'aumentare della complessità del compito.
English
Transformer large language models (LLMs) have sparked admiration for their
exceptional performance on tasks that demand intricate multi-step reasoning.
Yet, these models simultaneously show failures on surprisingly trivial
problems. This begs the question: Are these errors incidental, or do they
signal more substantial limitations? In an attempt to demystify Transformers,
we investigate the limits of these models across three representative
compositional tasks -- multi-digit multiplication, logic grid puzzles, and a
classic dynamic programming problem. These tasks require breaking problems down
into sub-steps and synthesizing these steps into a precise answer. We formulate
compositional tasks as computation graphs to systematically quantify the level
of complexity, and break down reasoning steps into intermediate sub-procedures.
Our empirical findings suggest that Transformers solve compositional tasks by
reducing multi-step compositional reasoning into linearized subgraph matching,
without necessarily developing systematic problem-solving skills. To round off
our empirical study, we provide theoretical arguments on abstract multi-step
reasoning problems that highlight how Transformers' performance will rapidly
decay with increased task complexity.