Adam-mini: Verwenden Sie weniger Lernraten, um mehr zu gewinnen.Adam-mini: Use Fewer Learning Rates To Gain More
Wir schlagen Adam-mini vor, einen Optimierer, der eine vergleichbare oder bessere Leistung als AdamW mit 45% bis 50% weniger Speicherplatz erreicht. Adam-mini reduziert den Speicherbedarf, indem er die Ressourcen für die Lernrate in Adam (d.h. 1/v) reduziert. Wir stellen fest, dass über 90% dieser Lernraten in v unbedenklich entfernt werden könnten, wenn wir (1) die Parameter sorgfältig in Blöcke unterteilen, die unserem vorgeschlagenen Prinzip der Hesse'schen Struktur folgen; (2) jeder Parametergruppe eine einzige, aber gute Lernrate zuweisen. Wir stellen weiter fest, dass für jede dieser Parametergruppen eine einzige hochwertige Lernrate existiert, die Adam übertreffen kann, vorausgesetzt ausreichende Ressourcen stehen zur Verfügung, um sie zu ermitteln. Wir bieten dann einen kostengünstigen Weg, um gute Lernraten zu finden, und schlagen Adam-mini vor. Empirisch bestätigen wir, dass Adam-mini bei verschiedenen Sprachmodellen mit Größen von 125M bis 7B für Vor-Training, überwachtes Feintuning und RLHF eine vergleichbare oder bessere Leistung als AdamW erbringt. Der reduzierte Speicherbedarf von Adam-mini verringert auch die Kommunikationsüberlastung zwischen GPUs und CPUs und erhöht somit die Durchsatzleistung. Adam-mini erreicht beispielsweise eine 49,6% höhere Durchsatzleistung als AdamW beim Vor-Training von Llama2-7B auf 2-mal A800-80GB GPUs, was eine 33%ige Zeitersparnis beim Vor-Training bedeutet.