Escalar de manera óptima el cálculo del tiempo de prueba de LLM puede ser más efectivo que escalar los parámetros del modelo.Scaling LLM Test-Time Compute Optimally can be More Effective than
Scaling Model Parameters
Permitir a los LLM mejorar sus salidas mediante el uso de más cálculos en tiempo de prueba es un paso crítico hacia la construcción de agentes generalmente auto-mejoradores que puedan operar en lenguaje natural de forma abierta. En este documento, estudiamos la escalabilidad de los cálculos en tiempo de inferencia en LLMs, centrándonos en responder a la pregunta: si a un LLM se le permite utilizar una cantidad fija pero significativa de cálculos en tiempo de inferencia, ¿cuánto puede mejorar su rendimiento en una tarea desafiante? Responder a esta pregunta tiene implicaciones no solo en el rendimiento alcanzable de los LLMs, sino también en el futuro del preentrenamiento de LLM y cómo se debe equilibrar el cálculo en tiempo de inferencia y el preentrenamiento. A pesar de su importancia, hay poca investigación que haya intentado comprender los comportamientos de escalabilidad de varios métodos de inferencia en tiempo de prueba. Además, el trabajo actual en su mayoría proporciona resultados negativos para varias de estas estrategias. En este trabajo, analizamos dos mecanismos principales para escalar el cálculo en tiempo de prueba: (1) buscar en modelos de recompensa verificadores densos basados en procesos; y (2) actualizar la distribución del modelo sobre una respuesta de forma adaptativa, dada la tarea en tiempo de prueba. Descubrimos que, en ambos casos, la efectividad de diferentes enfoques para escalar el cálculo en tiempo de prueba varía críticamente según la dificultad de la tarea. Esta observación motiva la aplicación de una estrategia de escalado "óptima en cálculo", que actúa para asignar de manera más efectiva el cálculo en tiempo de prueba de forma adaptativa por tarea. Utilizando esta estrategia óptima en cálculo, podemos mejorar la eficiencia del escalado del cálculo en tiempo de prueba en más de 4 veces en comparación con un modelo de referencia de mejor de N. Además, en una evaluación de FLOPs equiparada, descubrimos que en problemas donde un modelo base más pequeño alcanza tasas de éxito algo significativas, el cálculo en tiempo de prueba puede utilizarse para superar a un modelo 14 veces más grande.