O Princípio de Cobertura: Um Framework para Compreender a Generalização Composicional
The Coverage Principle: A Framework for Understanding Compositional Generalization
May 26, 2025
Autores: Hoyeon Chang, Jinho Park, Hanseul Cho, Sohee Yang, Miyoung Ko, Hyeonbin Hwang, Seungpil Won, Dohaeng Lee, Youbin Ahn, Minjoon Seo
cs.AI
Resumo
Modelos de linguagem de grande escala se destacam na correspondência de padrões, mas frequentemente falham na generalização composicional sistemática. Propomos o princípio da cobertura: uma estrutura centrada em dados que mostra que modelos que dependem principalmente da correspondência de padrões para tarefas composicionais não podem generalizar de forma confiável além da substituição de fragmentos que produzem resultados idênticos quando usados nos mesmos contextos. Demonstramos que essa estrutura tem um forte poder preditivo para as capacidades de generalização dos Transformers. Primeiro, derivamos e confirmamos empiricamente que os dados de treinamento necessários para generalização de dois saltos crescem pelo menos quadraticamente com o tamanho do conjunto de tokens, e a eficiência dos dados de treinamento não melhora com um aumento de 20 vezes na escala de parâmetros. Segundo, para tarefas composicionais com ambiguidade de caminho, onde uma variável afeta a saída através de múltiplos caminhos computacionais, mostramos que os Transformers aprendem representações de estado dependentes de contexto que prejudicam tanto o desempenho quanto a interoperabilidade. Terceiro, a supervisão de Chain-of-Thought melhora a eficiência dos dados de treinamento para tarefas de múltiplos saltos, mas ainda luta com a ambiguidade de caminho. Finalmente, delineamos uma taxonomia baseada em mecanismos que distingue três formas pelas quais redes neurais podem generalizar: baseada em estrutura (limitada pela cobertura), baseada em propriedades (aproveitando invariantes algébricas) e de operador compartilhado (através da reutilização de funções). Essa lente conceitual contextualiza nossos resultados e destaca onde novas ideias arquitetônicas são necessárias para alcançar a composicionalidade sistemática. No geral, o princípio da cobertura fornece uma lente unificada para entender o raciocínio composicional e enfatiza a necessidade de inovações arquitetônicas ou de treinamento fundamentais para alcançar uma composicionalidade verdadeiramente sistemática.
English
Large language models excel at pattern matching, yet often fall short in
systematic compositional generalization. We propose the coverage principle: a
data-centric framework showing that models relying primarily on pattern
matching for compositional tasks cannot reliably generalize beyond substituting
fragments that yield identical results when used in the same contexts. We
demonstrate that this framework has a strong predictive power for the
generalization capabilities of Transformers. First, we derive and empirically
confirm that the training data required for two-hop generalization grows at
least quadratically with the token set size, and the training data efficiency
does not improve with 20x parameter scaling. Second, for compositional tasks
with path ambiguity where one variable affects the output through multiple
computational paths, we show that Transformers learn context-dependent state
representations that undermine both performance and interoperability. Third,
Chain-of-Thought supervision improves training data efficiency for multi-hop
tasks but still struggles with path ambiguity. Finally, we outline a
mechanism-based taxonomy that distinguishes three ways neural networks
can generalize: structure-based (bounded by coverage), property-based
(leveraging algebraic invariances), and shared-operator (through function
reuse). This conceptual lens contextualizes our results and highlights where
new architectural ideas are needed to achieve systematic compositionally.
Overall, the coverage principle provides a unified lens for understanding
compositional reasoning, and underscores the need for fundamental architectural
or training innovations to achieve truly systematic compositionality.