수렴 진화: 다양한 언어 모델이 유사한 숫자 표현을 학습하는 방식
Convergent Evolution: How Different Language Models Learn Similar Number Representations
April 22, 2026
저자: Deqing Fu, Tianyi Zhou, Mikhail Belkin, Vatsal Sharan, Robin Jia
cs.AI
초록
자연어 텍스트로 훈련된 언어 모델은 T=2, 5, 10에서 지배적인 주기를 갖는 주기적 특성(periodic features)을 사용하여 숫자를 표현하는 방법을 학습합니다. 본 논문에서는 이러한 특성의 두 단계 계층 구조를 규명합니다. 다양한 방식으로 훈련된 트랜스포머(Transformers), 선형 RNNs(Linear RNNs), LSTM들(LSTMs), 그리고 고전적인 단어 임베딩(classical word embeddings) 모두 푸리에 영역(Fourier domain)에서 주기-T 스파이크(period-T spikes)를 갖는 특성을 학습하지만, 어떤 모델들은 숫자를 T로 나눈 나머지(mod-T)를 선형 분류(linear classification)하는 데 사용될 수 있는 기하학적으로 분리 가능한 특성(geometrically separable features)만을 학습합니다. 이러한 불일치를 설명하기 위해, 우리는 푸리에 영역의 희소성(sparsity)이 mod-T 기하학적 분리 가능성을 위한 필요 조건이지만 충분 조건은 아니라는 것을 증명합니다. 실증적으로는 모델 훈련이 기하학적으로 분리 가능한 특성을 생성하는 조건을 조사했으며, 데이터, 아키텍처, 옵티마이저(optimizer), 그리고 토크나이저(tokenizer)가 모두 핵심적인 역할을 한다는 것을 발견했습니다. 특히, 모델이 기하학적으로 분리 가능한 특성을 획득할 수 있는 두 가지 다른 경로를 규명합니다: 일반 언어 데이터 내의 보완적인 동시 발생 신호(complementary co-occurrence signals)(텍스트-숫자 동시 발생 및 숫자 간 상호 작용 포함)로부터 학습하거나, 다중 토큰(multi-token) 덧셈 문제(단일 토큰(single-token) 문제는 제외)로부터 학습하는 경로입니다. 전반적으로, 우리의 결과는 특징 학습에서의 수렴 진화(convergent evolution) 현상을 부각시킵니다: 다양한 모델들이 서로 다른 훈련 신호로부터 유사한 특성들을 학습합니다.
English
Language models trained on natural text learn to represent numbers using periodic features with dominant periods at T=2, 5, 10. In this paper, we identify a two-tiered hierarchy of these features: while Transformers, Linear RNNs, LSTMs, and classical word embeddings trained in different ways all learn features that have period-T spikes in the Fourier domain, only some learn geometrically separable features that can be used to linearly classify a number mod-T. To explain this incongruity, we prove that Fourier domain sparsity is necessary but not sufficient for mod-T geometric separability. Empirically, we investigate when model training yields geometrically separable features, finding that the data, architecture, optimizer, and tokenizer all play key roles. In particular, we identify two different routes through which models can acquire geometrically separable features: they can learn them from complementary co-occurrence signals in general language data, including text-number co-occurrence and cross-number interaction, or from multi-token (but not single-token) addition problems. Overall, our results highlight the phenomenon of convergent evolution in feature learning: A diverse range of models learn similar features from different training signals.