ChatPaper.aiChatPaper

Qué Sucedió en las Capas de LLMs al Ser Entrenadas para Pensamiento Rápido vs. Lento: Una Perspectiva de Gradiente

What Happened in LLMs Layers when Trained for Fast vs. Slow Thinking: A Gradient Perspective

October 31, 2024
Autores: Ming Li, Yanhong Li, Tianyi Zhou
cs.AI

Resumen

¿Qué marca la diferencia en el post-entrenamiento de LLMs? Investigamos los patrones de entrenamiento de diferentes capas en modelos de lenguaje grandes (LLMs), a través del prisma del gradiente, al entrenar con diferentes respuestas y modelos iniciales. Nos interesa específicamente cómo el pensamiento rápido frente al lento afecta a los gradientes por capa, dada la reciente popularidad de entrenar LLMs en caminos de razonamiento como cadenas de pensamientos (CoT) y recompensas de proceso. En nuestro estudio, el pensamiento rápido sin CoT conduce a gradientes más grandes y diferencias más amplias de gradientes entre capas que el pensamiento lento (CoT detallado), lo que indica la estabilidad de aprendizaje que aporta este último. Además, los LLMs pre-entrenados se ven menos afectados por la inestabilidad del pensamiento rápido que los LLMs ajustados a instrucciones. Asimismo, estudiamos si los patrones de gradiente pueden reflejar la corrección de respuestas al entrenar diferentes LLMs utilizando caminos de pensamiento lento frente a rápido. Los resultados muestran que los gradientes del pensamiento lento pueden distinguir entre caminos de razonamiento correctos e irrelevantes. A modo de comparación, realizamos análisis de gradientes similares en tareas de aprendizaje de conocimiento no relacionadas con el razonamiento, en las que, sin embargo, aumentar trivialmente la longitud de la respuesta no conduce a comportamientos similares al pensamiento lento. Nuestro estudio fortalece la comprensión fundamental del entrenamiento de LLMs y aporta nuevas perspectivas sobre su eficiencia y estabilidad, allanando el camino hacia la construcción de un agente System-2 generalizable. Nuestro código, datos y estadísticas de gradientes se pueden encontrar en: https://github.com/MingLiiii/Layer_Gradient.
English
What makes a difference in the post-training of LLMs? We investigate the training patterns of different layers in large language models (LLMs), through the lens of gradient, when training with different responses and initial models. We are specifically interested in how fast vs. slow thinking affects the layer-wise gradients, given the recent popularity of training LLMs on reasoning paths such as chain-of-thoughts (CoT) and process rewards. In our study, fast thinking without CoT leads to larger gradients and larger differences of gradients across layers than slow thinking (Detailed CoT), indicating the learning stability brought by the latter. Moreover, pre-trained LLMs are less affected by the instability of fast thinking than instruction-tuned LLMs. Additionally, we study whether the gradient patterns can reflect the correctness of responses when training different LLMs using slow vs. fast thinking paths. The results show that the gradients of slow thinking can distinguish correct and irrelevant reasoning paths. As a comparison, we conduct similar gradient analyses on non-reasoning knowledge learning tasks, on which, however, trivially increasing the response length does not lead to similar behaviors of slow thinking. Our study strengthens fundamental understandings of LLM training and sheds novel insights on its efficiency and stability, which pave the way towards building a generalizable System-2 agent. Our code, data, and gradient statistics can be found in: https://github.com/MingLiiii/Layer_Gradient.

Summary

AI-Generated Summary

PDF644November 13, 2024