Emaranhamento Artificial no Ajuste Fino de Modelos de Linguagem de Grande Escala
Artificial Entanglement in the Fine-Tuning of Large Language Models
January 11, 2026
Autores: Min Chen, Zihan Wang, Canyu Chen, Zeguan Wu, Manling Li, Junyu Liu
cs.AI
Resumo
Os grandes modelos de linguagem (LLMs) podem ser adaptados a novas tarefas usando métodos de ajuste fino com eficiência de parâmetros (PEFT) que modificam apenas um pequeno número de parâmetros treináveis, frequentemente por meio de atualizações de baixo posto. Neste trabalho, adotamos uma perspectiva inspirada na informação quântica para compreender sua eficácia. Desta perspectiva, parametrizações de baixo posto correspondem naturalmente a representações de Estados de Produto Matricial (MPS) de baixa dimensionalidade, que permitem caracterizações baseadas em emaranhamento da estrutura dos parâmetros. Desse modo, denominamos e medimos "Emaranhamento Artificial", definido como a entropia de emaranhamento dos parâmetros em redes neurais artificiais (em particular os LLMs). Primeiro, estudamos o método PEFT representativo de adaptação de baixo posto (LoRA), juntamente com o ajuste fino completo (FFT), usando modelos LLaMA nas escalas de 1B e 8B treinados nos conjuntos de dados Tulu3 e OpenThoughts3, e descobrimos: (i) O emaranhamento artificial interno nas atualizações das matrizes de projeção de consulta e valor no LoRA segue uma lei de volume com uma supressão central (denominada "Vale do Emaranhamento"), que é sensível a hiperparâmetros e é distinta da observada no FFT; (ii) O emaranhamento artificial externo nas matrizes de atenção, correspondente às correlações token-token no espaço de representação, segue uma lei de área com correções logarítmicas e mantém-se robusto face aos hiperparâmetros do LoRA e às etapas de treinamento. Estabelecendo um paralelo com o Teorema da Não-Cabelagem na física dos buracos negros, propomos que, embora o LoRA e o FFT induzam assinaturas de emaranhamento interno distintas, tais diferenças não se manifestam nas saídas de atenção, sugerindo uma propriedade de "não-cabelagem" que resulta na eficácia das atualizações de baixo posto. Fornecemos ainda suporte teórico baseado na teoria de matrizes aleatórias e estendemos nossa análise a um método PEFT de Adaptação MPS, que exibe comportamentos qualitativamente semelhantes.
English
Large language models (LLMs) can be adapted to new tasks using parameter-efficient fine-tuning (PEFT) methods that modify only a small number of trainable parameters, often through low-rank updates. In this work, we adopt a quantum-information-inspired perspective to understand their effectiveness. From this perspective, low-rank parameterizations naturally correspond to low-dimensional Matrix Product States (MPS) representations, which enable entanglement-based characterizations of parameter structure. Thereby, we term and measure "Artificial Entanglement", defined as the entanglement entropy of the parameters in artificial neural networks (in particular the LLMs). We first study the representative low-rank adaptation (LoRA) PEFT method, alongside full fine-tuning (FFT), using LLaMA models at the 1B and 8B scales trained on the Tulu3 and OpenThoughts3 datasets, and uncover: (i) Internal artificial entanglement in the updates of query and value projection matrices in LoRA follows a volume law with a central suppression (termed as the "Entanglement Valley"), which is sensitive to hyper-parameters and is distinct from that in FFT; (ii) External artificial entanglement in attention matrices, corresponding to token-token correlations in representation space, follows an area law with logarithmic corrections and remains robust to LoRA hyper-parameters and training steps. Drawing a parallel to the No-Hair Theorem in black hole physics, we propose that although LoRA and FFT induce distinct internal entanglement signatures, such differences do not manifest in the attention outputs, suggesting a "no-hair" property that results in the effectiveness of low rank updates. We further provide theoretical support based on random matrix theory, and extend our analysis to an MPS Adaptation PEFT method, which exhibits qualitatively similar behaviors.