ChatPaper.aiChatPaper

Gli LLM Possono "Marcire il Cervello"!

LLMs Can Get "Brain Rot"!

October 15, 2025
Autori: Shuo Xing, Junyuan Hong, Yifan Wang, Runjin Chen, Zhenyu Zhang, Ananth Grama, Zhengzhong Tu, Zhangyang Wang
cs.AI

Abstract

Proponiamo e testiamo l'Ipotesi del Degrado Cerebrale nei LLM: l'esposizione continua a testi di bassa qualità provenienti dal web induce un declino cognitivo duraturo nei grandi modelli linguistici (LLM). Per isolare causalmente la qualità dei dati, conduciamo esperimenti controllati su corpora reali di Twitter/X, costruendo dataset di bassa qualità e dataset di controllo inverso attraverso due operazionalizzazioni ortogonali: M1 (grado di coinvolgimento) e M2 (qualità semantica), con scala di token e operazioni di training bilanciate tra le condizioni. Contrariamente al gruppo di controllo, il pre-training continuo di 4 LLM sul dataset di bassa qualità causa declini significativi (Hedges' g>0.3) nel ragionamento, nella comprensione di contesti lunghi, nella sicurezza e nell'incremento di "tratti oscuri" (ad esempio, psicopatia, narcisismo). Le miscele graduali di dataset di bassa qualità e di controllo producono anche un decadimento cognitivo dose-risposta: ad esempio, in M1, ARC-Challenge con Chain Of Thoughts scende da 74.9 a 57.2 e RULER-CWE da 84.4 a 52.3 man mano che la percentuale di dati di bassa qualità aumenta dallo 0% al 100%. L'analisi degli errori rivela diverse intuizioni chiave. In primo luogo, identifichiamo il salto di pensiero come la lesione principale: i modelli troncano o saltano sempre più le catene di ragionamento, spiegando gran parte della crescita degli errori. In secondo luogo, osserviamo una guarigione parziale ma incompleta: il tuning delle istruzioni e il pre-training con dati puliti migliorano la cognizione deteriorata, ma non riescono a ripristinare le capacità di base, suggerendo una deriva rappresentativa persistente piuttosto che un disallineamento di formato. Infine, scopriamo che la popolarità, una metrica non semantica, di un tweet è un indicatore migliore dell'effetto di Degrado Cerebrale rispetto alla lunghezza in M1. Insieme, i risultati forniscono prove significative e multiprospettiche che la qualità dei dati è un fattore causale del declino delle capacità dei LLM, ridefinendo la curazione per il pre-training continuo come un problema di sicurezza durante l'addestramento e motivando controlli di routine della "salute cognitiva" per i LLM in produzione.
English
We propose and test the LLM Brain Rot Hypothesis: continual exposure to junk web text induces lasting cognitive decline in large language models (LLMs). To causally isolate data quality, we run controlled experiments on real Twitter/X corpora, constructing junk and reversely controlled datasets via two orthogonal operationalizations: M1 (engagement degree) and M2 (semantic quality), with matched token scale and training operations across conditions. Contrary to the control group, continual pre-training of 4 LLMs on the junk dataset causes non-trivial declines (Hedges' g>0.3) on reasoning, long-context understanding, safety, and inflating "dark traits" (e.g., psychopathy, narcissism). The gradual mixtures of junk and control datasets also yield dose-response cognition decay: for example, under M1, ARC-Challenge with Chain Of Thoughts drops 74.9 rightarrow 57.2 and RULER-CWE 84.4 rightarrow 52.3 as junk ratio rises from 0% to 100%. Error forensics reveal several key insights. First, we identify thought-skipping as the primary lesion: models increasingly truncate or skip reasoning chains, explaining most of the error growth. Second, partial but incomplete healing is observed: scaling instruction tuning and clean data pre-training improve the declined cognition yet cannot restore baseline capability, suggesting persistent representational drift rather than format mismatch. Finally, we discover that the popularity, a non-semantic metric, of a tweet is a better indicator of the Brain Rot effect than the length in M1. Together, the results provide significant, multi-perspective evidence that data quality is a causal driver of LLM capability decay, reframing curation for continual pretraining as a training-time safety problem and motivating routine "cognitive health checks" for deployed LLMs.
PDF192October 17, 2025