ChatPaper.aiChatPaper

Het ontrafelen van de cognitieve patronen van Large Language Models door middel van modulegemeenschappen

Unraveling the cognitive patterns of Large Language Models through module communities

August 25, 2025
Auteurs: Kushal Raj Bhandari, Pin-Yu Chen, Jianxi Gao
cs.AI

Samenvatting

Grote Taalmodellen (LLMs) hebben onze wereld hervormd met aanzienlijke vooruitgang in wetenschap, techniek en maatschappij door toepassingen variërend van wetenschappelijke ontdekkingen en medische diagnostiek tot chatbots. Ondanks hun alomtegenwoordigheid en nut blijven de onderliggende mechanismen van LLMs verborgen in miljarden parameters en complexe structuren, waardoor hun interne architectuur en cognitieve processen moeilijk te begrijpen zijn. Wij pakken deze kloof aan door benaderingen te hanteren om opkomende cognitie in de biologie te begrijpen en een netwerkgebaseerd raamwerk te ontwikkelen dat cognitieve vaardigheden, LLM-architecturen en datasets met elkaar verbindt, wat een paradigmaverschuiving in de analyse van fundamentele modellen inluidt. De vaardigheidsverdeling in de modulegemeenschappen toont aan dat, hoewel LLMs niet strikt parallel lopen aan de gefocuste specialisatie die wordt waargenomen in specifieke biologische systemen, ze unieke gemeenschappen van modules vertonen waarvan de opkomende vaardigheidspatronen gedeeltelijk de gedistribueerde maar onderling verbonden cognitieve organisatie weerspiegelen die wordt gezien in vogel- en kleine zoogdierhersenen. Onze numerieke resultaten benadrukken een belangrijk verschil tussen biologische systemen en LLMs, waar vaardigheidsverwerving aanzienlijk profiteert van dynamische, cross-regionale interacties en neurale plasticiteit. Door principes uit de cognitieve wetenschap te integreren met machine learning, biedt ons raamwerk nieuwe inzichten in de interpreteerbaarheid van LLMs en suggereert het dat effectieve fine-tuningstrategieën gebruik moeten maken van gedistribueerde leer dynamieken in plaats van rigide modulaire interventies.
English
Large Language Models (LLMs) have reshaped our world with significant advancements in science, engineering, and society through applications ranging from scientific discoveries and medical diagnostics to Chatbots. Despite their ubiquity and utility, the underlying mechanisms of LLM remain concealed within billions of parameters and complex structures, making their inner architecture and cognitive processes challenging to comprehend. We address this gap by adopting approaches to understanding emerging cognition in biology and developing a network-based framework that links cognitive skills, LLM architectures, and datasets, ushering in a paradigm shift in foundation model analysis. The skill distribution in the module communities demonstrates that while LLMs do not strictly parallel the focalized specialization observed in specific biological systems, they exhibit unique communities of modules whose emergent skill patterns partially mirror the distributed yet interconnected cognitive organization seen in avian and small mammalian brains. Our numerical results highlight a key divergence from biological systems to LLMs, where skill acquisition benefits substantially from dynamic, cross-regional interactions and neural plasticity. By integrating cognitive science principles with machine learning, our framework provides new insights into LLM interpretability and suggests that effective fine-tuning strategies should leverage distributed learning dynamics rather than rigid modular interventions.
PDF32August 27, 2025