ChatPaper.aiChatPaper

Oltre l'ottimizzazione di Chinchilla: Considerare l'inferenza nelle leggi di scalabilità dei modelli linguistici

Beyond Chinchilla-Optimal: Accounting for Inference in Language Model Scaling Laws

December 31, 2023
Autori: Nikhil Sardana, Jonathan Frankle
cs.AI

Abstract

Le leggi di scala dei modelli linguistici di grandi dimensioni (LLM) sono formule empiriche che stimano le variazioni nella qualità del modello in funzione dell'aumento del numero di parametri e dei dati di addestramento. Tuttavia, queste formule, comprese le popolari leggi di scala DeepMind Chinchilla, non tengono conto del costo dell'inferenza. Modifichiamo le leggi di scala Chinchilla per calcolare il numero ottimale di parametri di un LLM e la dimensione dei dati di pre-addestramento necessari per addestrare e distribuire un modello di una determinata qualità e con una specifica richiesta di inferenza. Condurremo la nostra analisi sia in termini di budget computazionale che di costi reali, e scopriremo che i ricercatori di LLM che si aspettano una richiesta di inferenza ragionevolmente ampia (~1 miliardo di richieste) dovrebbero addestrare modelli più piccoli e per un periodo più lungo rispetto a quanto suggerito dall'ottimizzazione Chinchilla.
English
Large language model (LLM) scaling laws are empirical formulas that estimate changes in model quality as a result of increasing parameter count and training data. However, these formulas, including the popular DeepMind Chinchilla scaling laws, neglect to include the cost of inference. We modify the Chinchilla scaling laws to calculate the optimal LLM parameter count and pre-training data size to train and deploy a model of a given quality and inference demand. We conduct our analysis both in terms of a compute budget and real-world costs and find that LLM researchers expecting reasonably large inference demand (~1B requests) should train models smaller and longer than Chinchilla-optimal.
PDF302December 15, 2024