ChatPaper.aiChatPaper

Niet Alles is Verloren: LLM-herstel zonder Checkpoints

All is Not Lost: LLM Recovery without Checkpoints

June 18, 2025
Auteurs: Nikolay Blagoev, Oğuzhan Ersoy, Lydia Yiyu Chen
cs.AI

Samenvatting

Het trainen van LLM's op gedecentraliseerde en beperkte rekenknooppunten, zoals meerdere on-site instanties, verlaagt de trainingskosten en maakt modeldemocratisering mogelijk. De onvermijdelijke uitdaging hierbij is het uitvallen van knooppunten door fouten en het planningsbeleid van de operator, wat leidt tot het verlies van een fase - een deel van het model. De conventionele benaderingen om van fouten te herstellen zijn het gebruik van checkpointing, waarbij periodiek een kopie van het volledige model naar een extra opslag wordt gestuurd, of redundante berekeningen. Deze benaderingen veroorzaken aanzienlijke communicatie- en/of rekenoverhead, zelfs in gevallen zonder fouten, en schalen slecht in omgevingen met grote modellen. In dit artikel stellen we CheckFree voor, een efficiënte herstelmethode waarbij een falende fase wordt vervangen door een gewogen gemiddelde van de dichtstbijzijnde naburige fasen. In tegenstelling tot de state-of-the-art vereist CheckFree geen extra berekeningen of opslag. Vanwege de aard van het middelen van naburige fasen kan het echter alleen fouten in tussenliggende fasen herstellen. We breiden onze methode verder uit naar CheckFree+ met uit-de-volgorde pijplijnuitvoering om crashes van de eerste en laatste fasen te tolereren. Dankzij uit-de-volgorde pijplijnen wordt het gedrag van die fasen nagebootst door hun naburige fasen, wat CheckFree+ in staat stelt ze te herstellen door simpelweg de gewichten van de directe buur te kopiëren. Om de (de)embedding-lagen te kunnen herstellen, kopieert CheckFree+ die lagen naar de naburige fasen, wat relatief weinig opslagoverhead vereist. We evalueren onze methode uitgebreid op LLaMa-modellen van modelgroottes van 124M tot 1,5B met variërende faalfrequenties. In het geval van lage en gemiddelde faalpercentages (5-10%) presteren CheckFree en CheckFree+ beter dan zowel checkpointing als redundante berekeningen in termen van convergentie in kloktijd met meer dan 12%. Beide van onze voorstellen kunnen worden uitgevoerd via onze code beschikbaar op: https://github.com/gensyn-ai/CheckFree.
English
Training LLMs on decentralized and wimpy computation nodes, e.g., multiple on-spot instances, lowers the training cost and enables model democratization. The inevitable challenge here is the churn of nodes due to failures and the operator's scheduling policies, leading to losing a stage - a part of the model. The conventional approaches to recover from failures are to either use checkpointing, where periodically a copy of the entire model is sent to an additional storage, or redundant computation. These approaches yield significant communication and/or computation overhead even in non-failure cases and scale poorly in settings with large models. In this paper, we propose, CheckFree, an efficient recovery method where a failing stage is substituted by a weighted average of the closest neighboring stages. In contrast to the state of the art, CheckFree requires no additional computation or storage. However, because of the nature of averaging neighbouring stages, it can only recover failures of intermediate stages. We further extend our method to CheckFree+ with out-of-order pipeline execution to tolerate crashes of the first and last stages. Thanks to out-of-order pipelining, behaviour of those stages is mimicked by their neighboring ones, which allows CheckFree+ to recover them by simply copying the weights from the immediate neighbour. To be able to recover the (de)embedding layers, CheckFree+ copies those layers to the neighboring stages, which requires relatively small storage overhead. We extensively evaluate our method on LLaMa models of model sizes from 124M to 1.5B with varying failure frequencies. In the case of low and medium failure rates (5-10%), CheckFree and CheckFree+ outperform both checkpointing and redundant computation in terms of convergence in wall-clock time by over 12%. Both of our proposals can be run via our code available at: https://github.com/gensyn-ai/CheckFree.
PDF372June 19, 2025