L'Irragionevole Inefficacia degli Strati Più Profondi
The Unreasonable Ineffectiveness of the Deeper Layers
March 26, 2024
Autori: Andrey Gromov, Kushal Tirumala, Hassan Shapourian, Paolo Glorioso, Daniel A. Roberts
cs.AI
Abstract
Studiamo empiricamente una semplice strategia di potatura dei livelli per famiglie popolari di LLM pre-addestrati a peso aperto, riscontrando un degrado minimo delle prestazioni su diversi benchmark di risposta alle domande fino a quando non viene rimossa una grande frazione (fino alla metà) dei livelli. Per potare questi modelli, identifichiamo il blocco ottimale di livelli da rimuovere considerando la similarità tra i livelli; quindi, per "riparare" il danno, eseguiamo una piccola quantità di fine-tuning. In particolare, utilizziamo metodi di fine-tuning efficiente in termini di parametri (PEFT), specificamente quantizzazione e Low Rank Adapters (QLoRA), in modo che ciascuno dei nostri esperimenti possa essere eseguito su una singola GPU A100. Da un punto di vista pratico, questi risultati suggeriscono che i metodi di potatura dei livelli possono complementare altre strategie PEFT per ridurre ulteriormente le risorse computazionali del fine-tuning da un lato e migliorare la memoria e la latenza dell'inferenza dall'altro. Da un punto di vista scientifico, la robustezza di questi LLMs alla rimozione dei livelli implica che i metodi di pre-addestramento attuali non stanno sfruttando adeguatamente i parametri negli strati più profondi della rete o che gli strati superficiali svolgono un ruolo critico nella memorizzazione della conoscenza.
English
We empirically study a simple layer-pruning strategy for popular families of
open-weight pretrained LLMs, finding minimal degradation of performance on
different question-answering benchmarks until after a large fraction (up to
half) of the layers are removed. To prune these models, we identify the optimal
block of layers to prune by considering similarity across layers; then, to
"heal" the damage, we perform a small amount of finetuning. In particular, we
use parameter-efficient finetuning (PEFT) methods, specifically quantization
and Low Rank Adapters (QLoRA), such that each of our experiments can be
performed on a single A100 GPU. From a practical perspective, these results
suggest that layer pruning methods can complement other PEFT strategies to
further reduce computational resources of finetuning on the one hand, and can
improve the memory and latency of inference on the other hand. From a
scientific perspective, the robustness of these LLMs to the deletion of layers
implies either that current pretraining methods are not properly leveraging the
parameters in the deeper layers of the network or that the shallow layers play
a critical role in storing knowledge.