Принцип покрытия: концептуальная основа для понимания композиционного обобщения
The Coverage Principle: A Framework for Understanding Compositional Generalization
May 26, 2025
Авторы: Hoyeon Chang, Jinho Park, Hanseul Cho, Sohee Yang, Miyoung Ko, Hyeonbin Hwang, Seungpil Won, Dohaeng Lee, Youbin Ahn, Minjoon Seo
cs.AI
Аннотация
Крупные языковые модели демонстрируют превосходство в распознавании паттернов, но часто оказываются неспособны к систематической композиционной генерализации. Мы предлагаем принцип покрытия: ориентированный на данные подход, который показывает, что модели, полагающиеся в основном на распознавание паттернов для выполнения композиционных задач, не могут надежно обобщать за пределы замены фрагментов, которые дают идентичные результаты при использовании в одинаковых контекстах. Мы демонстрируем, что этот подход обладает высокой предсказательной силой в отношении способности к обобщению у трансформеров. Во-первых, мы выводим и эмпирически подтверждаем, что объем обучающих данных, необходимых для двухшаговой генерализации, растет как минимум квадратично с увеличением размера набора токенов, а эффективность использования данных не улучшается при увеличении количества параметров в 20 раз. Во-вторых, для композиционных задач с неоднозначностью путей, где одна переменная влияет на выход через несколько вычислительных путей, мы показываем, что трансформеры изучают контекстно-зависимые представления состояний, которые подрывают как производительность, так и совместимость. В-третьих, обучение с использованием цепочки рассуждений (Chain-of-Thought) повышает эффективность использования данных для многошаговых задач, но все же сталкивается с трудностями при неоднозначности путей. Наконец, мы предлагаем механизм-ориентированную таксономию, которая выделяет три способа обобщения в нейронных сетях: основанное на структуре (ограниченное покрытием), основанное на свойствах (использующее алгебраические инвариантности) и основанное на общих операторах (через повторное использование функций). Эта концептуальная линза контекстуализирует наши результаты и подчеркивает, где необходимы новые архитектурные идеи для достижения систематической композиционности. В целом, принцип покрытия предоставляет единый подход для понимания композиционного рассуждения и подчеркивает необходимость фундаментальных инноваций в архитектуре или обучении для достижения истинно систематической композиционности.
English
Large language models excel at pattern matching, yet often fall short in
systematic compositional generalization. We propose the coverage principle: a
data-centric framework showing that models relying primarily on pattern
matching for compositional tasks cannot reliably generalize beyond substituting
fragments that yield identical results when used in the same contexts. We
demonstrate that this framework has a strong predictive power for the
generalization capabilities of Transformers. First, we derive and empirically
confirm that the training data required for two-hop generalization grows at
least quadratically with the token set size, and the training data efficiency
does not improve with 20x parameter scaling. Second, for compositional tasks
with path ambiguity where one variable affects the output through multiple
computational paths, we show that Transformers learn context-dependent state
representations that undermine both performance and interoperability. Third,
Chain-of-Thought supervision improves training data efficiency for multi-hop
tasks but still struggles with path ambiguity. Finally, we outline a
mechanism-based taxonomy that distinguishes three ways neural networks
can generalize: structure-based (bounded by coverage), property-based
(leveraging algebraic invariances), and shared-operator (through function
reuse). This conceptual lens contextualizes our results and highlights where
new architectural ideas are needed to achieve systematic compositionally.
Overall, the coverage principle provides a unified lens for understanding
compositional reasoning, and underscores the need for fundamental architectural
or training innovations to achieve truly systematic compositionality.Summary
AI-Generated Summary