Kunnen Grote Taalmodellen Fundamentele Algoritmen Opnieuw Uitvinden?
Can Large Language Models Reinvent Foundational Algorithms?
April 7, 2026
Auteurs: Jian Zhao, Haoren Luo, Yu Wang, Yuhan Cao, Pingyue Sheng, Tianxing He
cs.AI
Samenvatting
LLM's hebben een sterk potentieel getoond om wetenschappelijke ontdekkingen te bevorderen. Of ze daadwerkelijk in staat zijn tot fundamentele innovatie, blijft echter een open vraag. In dit werk richten we ons op een voorwaarde voor fundamentele innovatie: kunnen LLM's fundamentele algoritmen in de informatica opnieuw uitvinden? Onze Unlearn-and-Reinvent-pijplijn past 'unlearning' (afleren) toe op een LLM om een specifiek fundamenteel algoritme, zoals het algoritme van Dijkstra of Euclides, te verwijderen uit de vooraf getrainde kennis van het model, en test vervolgens of het model het algoritme opnieuw kan uitvinden in een gecontroleerde omgeving. Om effectief afleren mogelijk te maken, gebruiken we een op GRTO gebaseerde, 'on-policy' aflermethode. Onze experimenten, uitgevoerd met 10 doelalgoritmen, 3 sterke open-weight modellen en 3 hintniveaus, tonen aan dat (1) het sterkste model, Qwen3-4B-Thinking-2507, erin slaagt 50% van de algoritmen opnieuw uit te vinden zonder hints, 70% bij hintniveau 1 en 90% bij hintniveau 2; (2) een paar hints op hoog niveau het slagingspercentage van de heruitvinding kunnen verhogen, maar dat zelfs stapsgewijze hints falen voor complexe algoritmen; en (3) 'reinforcement learning' tijdens de testfase een succesvolle heruitvinding van het Strassen-algoritme mogelijk maakt bij hintniveau 2. Door analyse van de outputtrajecten en 'ablatiestudies' concluderen we dat de generatieve verificateur in de heruitvindingsfase een cruciale rol speelt bij het in stand houden van de redeneerkracht van de modellen, waardoor het "denk-collapse"-fenomeen wordt vermeden. Deze bevindingen bieden inzicht in zowel de potentiële mogelijkheden als de huidige beperkingen van het innovatieve denkvermogen van LLM's.
English
LLMs have shown strong potential to advance scientific discovery. Whether they possess the capacity for foundational innovation, however, remains an open question. In this work, we focus on a prerequisite for foundational innovation: can LLMs reinvent foundational algorithms in computer science? Our Unlearn-and-Reinvent pipeline applies LLM unlearning to remove a specific foundational algorithm, such as Dijkstra's or Euclid's algorithm, from an LLM's pretrained knowledge, and then tests whether the model can reinvent it in a controlled environment. To enable effective unlearning, we adopt a GRPO-based, on-policy unlearning method. Across 10 target algorithms, 3 strong open-weight models, and 3 hint levels, our experiments demonstrate that (1) the strongest model Qwen3-4B-Thinking-2507 successfully reinvents 50% of the algorithms with no hint, 70% at hint level 1, and 90% at hint level 2; (2) a few high-level hints can enhance the reinvention success rate, but even step-by-step hints fail for those complicated algorithms; and (3) test-time reinforcement learning enables successful reinvention for the Strassen algorithm at hint level 2. Through analyses of output trajectories and ablation studies, we find that generative verifier in the reinvention phase plays a critical role in sustaining models' reasoning strength, helping to avoid the ``thought collapse'' phenomenon. These findings offer insights into both the potential and current limits of LLMs' innovative thinking.