ChatPaper.aiChatPaper

Het Dekkingsprincipe: Een Raamwerk voor het Begrijpen van Compositionele Generalisatie

The Coverage Principle: A Framework for Understanding Compositional Generalization

May 26, 2025
Auteurs: Hoyeon Chang, Jinho Park, Hanseul Cho, Sohee Yang, Miyoung Ko, Hyeonbin Hwang, Seungpil Won, Dohaeng Lee, Youbin Ahn, Minjoon Seo
cs.AI

Samenvatting

Grote taalmodellen blinken uit in patroonherkenning, maar schieten vaak tekort in systematische compositionele generalisatie. Wij stellen het dekkingsprincipe voor: een data-gericht raamwerk dat aantoont dat modellen die voornamelijk vertrouwen op patroonherkenning voor compositionele taken niet betrouwbaar kunnen generaliseren buiten het vervangen van fragmenten die identieke resultaten opleveren wanneer ze in dezelfde contexten worden gebruikt. We tonen aan dat dit raamwerk een sterke voorspellende kracht heeft voor de generalisatiecapaciteiten van Transformers. Ten eerste leiden we af en bevestigen we empirisch dat de benodigde trainingsdata voor tweestapsgeneralisatie minstens kwadratisch groeit met de grootte van de tokenset, en dat de efficiëntie van de trainingsdata niet verbetert met een 20-voudige schaling van parameters. Ten tweede tonen we aan dat voor compositionele taken met padambiguïteit, waarbij één variabele de uitvoer via meerdere computationele paden beïnvloedt, Transformers contextafhankelijke staatrepresentaties leren die zowel de prestaties als de interoperabiliteit ondermijnen. Ten derde verbetert Chain-of-Thought-supervisie de efficiëntie van trainingsdata voor meerstapstaken, maar worstelt nog steeds met padambiguïteit. Tot slot schetsen we een mechanisme-gebaseerde taxonomie die drie manieren onderscheidt waarop neurale netwerken kunnen generaliseren: structuurgebaseerd (beperkt door dekking), eigenschapgebaseerd (gebruikmakend van algebraïsche invarianties), en gedeelde-operator (via functiehergebruik). Dit conceptuele kader plaatst onze resultaten in context en benadrukt waar nieuwe architectonische ideeën nodig zijn om systematische compositioneelheid te bereiken. Over het geheel genomen biedt het dekkingsprincipe een verenigend perspectief voor het begrijpen van compositioneel redeneren, en onderstreept het de noodzaak van fundamentele architectonische of trainingsinnovaties om echt systematische compositioneelheid te bereiken.
English
Large language models excel at pattern matching, yet often fall short in systematic compositional generalization. We propose the coverage principle: a data-centric framework showing that models relying primarily on pattern matching for compositional tasks cannot reliably generalize beyond substituting fragments that yield identical results when used in the same contexts. We demonstrate that this framework has a strong predictive power for the generalization capabilities of Transformers. First, we derive and empirically confirm that the training data required for two-hop generalization grows at least quadratically with the token set size, and the training data efficiency does not improve with 20x parameter scaling. Second, for compositional tasks with path ambiguity where one variable affects the output through multiple computational paths, we show that Transformers learn context-dependent state representations that undermine both performance and interoperability. Third, Chain-of-Thought supervision improves training data efficiency for multi-hop tasks but still struggles with path ambiguity. Finally, we outline a mechanism-based taxonomy that distinguishes three ways neural networks can generalize: structure-based (bounded by coverage), property-based (leveraging algebraic invariances), and shared-operator (through function reuse). This conceptual lens contextualizes our results and highlights where new architectural ideas are needed to achieve systematic compositionally. Overall, the coverage principle provides a unified lens for understanding compositional reasoning, and underscores the need for fundamental architectural or training innovations to achieve truly systematic compositionality.
PDF71May 27, 2025