Kunstmatige Verstrengeling bij het Afstemmen van Grote Taalmodellen
Artificial Entanglement in the Fine-Tuning of Large Language Models
January 11, 2026
Auteurs: Min Chen, Zihan Wang, Canyu Chen, Zeguan Wu, Manling Li, Junyu Liu
cs.AI
Samenvatting
Grote taalmodellen (LLM's) kunnen worden aangepast aan nieuwe taken met behulp van parameter-efficiënte finetuning (PEFT) methoden die slechts een klein aantal trainbare parameters wijzigen, vaak via low-rank updates. In dit werk hanteren we een perspectief geïnspireerd door kwantuminformatie om hun effectiviteit te begrijpen. Vanuit dit perspectief corresponderen low-rank parameterisaties van nature met laagdimensionale Matrix Product States (MPS) representaties, die op verstrengeling gebaseerde karakteriseringen van de parameterstructuur mogelijk maken. Derhalve introduceren en meten wij "Artificiële Verstrengeling", gedefinieerd als de verstrengelingsentropie van de parameters in kunstmatige neurale netwerken (in het bijzonder de LLM's). We bestuderen eerst de representatieve low-rank adaptatie (LoRA) PEFT-methode, naast volledige finetuning (FFT), met LLaMA-modellen op de 1B en 8B schaal, getraind op de Tulu3 en OpenThoughts3 datasets, en ontdekken: (i) Interne artificiële verstrengeling in de updates van de query- en value-projectiematrices in LoRA volgt een volumewet met een centrale suppressie (aangeduid als de "Verstrengelingsvallei"), die gevoelig is voor hyperparameters en verschilt van die in FFT; (ii) Externe artificiële verstrengeling in aandachtmatrices, corresponderend met token-token correlaties in de representatieruimte, volgt een oppervlaktewet met logaritmische correcties en blijft robuust voor LoRA-hyperparameters en trainstappen. In een parallel met de No-Hair Stelling uit de zwarte-gat-fysica, stellen we voor dat hoewel LoRA en FFT distincte interne verstrengelingssignaturen induceren, dergelijke verschillen niet tot uiting komen in de aandachtoutputs, wat wijst op een "no-hair" eigenschap die resulteert in de effectiviteit van low-rank updates. We bieden verder theoretische ondersteuning gebaseerd op random matrix theorie, en breiden onze analyse uit naar een MPS Adaptatie PEFT-methode, die kwalitatief vergelijkbaar gedrag vertoont.
English
Large language models (LLMs) can be adapted to new tasks using parameter-efficient fine-tuning (PEFT) methods that modify only a small number of trainable parameters, often through low-rank updates. In this work, we adopt a quantum-information-inspired perspective to understand their effectiveness. From this perspective, low-rank parameterizations naturally correspond to low-dimensional Matrix Product States (MPS) representations, which enable entanglement-based characterizations of parameter structure. Thereby, we term and measure "Artificial Entanglement", defined as the entanglement entropy of the parameters in artificial neural networks (in particular the LLMs). We first study the representative low-rank adaptation (LoRA) PEFT method, alongside full fine-tuning (FFT), using LLaMA models at the 1B and 8B scales trained on the Tulu3 and OpenThoughts3 datasets, and uncover: (i) Internal artificial entanglement in the updates of query and value projection matrices in LoRA follows a volume law with a central suppression (termed as the "Entanglement Valley"), which is sensitive to hyper-parameters and is distinct from that in FFT; (ii) External artificial entanglement in attention matrices, corresponding to token-token correlations in representation space, follows an area law with logarithmic corrections and remains robust to LoRA hyper-parameters and training steps. Drawing a parallel to the No-Hair Theorem in black hole physics, we propose that although LoRA and FFT induce distinct internal entanglement signatures, such differences do not manifest in the attention outputs, suggesting a "no-hair" property that results in the effectiveness of low rank updates. We further provide theoretical support based on random matrix theory, and extend our analysis to an MPS Adaptation PEFT method, which exhibits qualitatively similar behaviors.