ChatPaper.aiChatPaper

Что происходит в слоях LLMs при обучении для быстрого и медленного мышления: градиентная перспектива

What Happened in LLMs Layers when Trained for Fast vs. Slow Thinking: A Gradient Perspective

October 31, 2024
Авторы: Ming Li, Yanhong Li, Tianyi Zhou
cs.AI

Аннотация

Что влияет на пост-тренировку крупных языковых моделей (LLM)? Мы исследуем паттерны обучения различных слоев в крупных языковых моделях (LLM) через призму градиента при обучении с разными ответами и начальными моделями. Мы специально интересуемся тем, как быстрое мышление по сравнению с медленным влияет на градиенты слоев, учитывая недавнюю популярность обучения LLM на путях рассуждений, таких как цепочка мыслей (CoT) и процесс вознаграждения. В нашем исследовании быстрое мышление без CoT приводит к более крупным градиентам и большим различиям градиентов между слоями, чем медленное мышление (Детальный CoT), указывая на устойчивость обучения, привнесенную последним. Более того, предварительно обученные LLM менее подвержены нестабильности быстрого мышления, чем LLM, настроенные на инструкции. Кроме того, мы изучаем, могут ли паттерны градиента отражать правильность ответов при обучении различных LLM с использованием путей медленного и быстрого мышления. Результаты показывают, что градиенты медленного мышления могут различать правильные и неправильные пути рассуждений. В качестве сравнения мы проводим анализ аналогичных градиентов на задачах обучения знаний без рассуждений, на которых, однако, тривиальное увеличение длины ответа не приводит к аналогичным поведенческим особенностям медленного мышления. Наше исследование укрепляет фундаментальное понимание обучения LLM и предлагает новые идеи относительно его эффективности и стабильности, что открывает путь к созданию обобщаемого агента System-2. Наш код, данные и статистика градиента доступны по ссылке: https://github.com/MingLiiii/Layer_Gradient.
English
What makes a difference in the post-training of LLMs? We investigate the training patterns of different layers in large language models (LLMs), through the lens of gradient, when training with different responses and initial models. We are specifically interested in how fast vs. slow thinking affects the layer-wise gradients, given the recent popularity of training LLMs on reasoning paths such as chain-of-thoughts (CoT) and process rewards. In our study, fast thinking without CoT leads to larger gradients and larger differences of gradients across layers than slow thinking (Detailed CoT), indicating the learning stability brought by the latter. Moreover, pre-trained LLMs are less affected by the instability of fast thinking than instruction-tuned LLMs. Additionally, we study whether the gradient patterns can reflect the correctness of responses when training different LLMs using slow vs. fast thinking paths. The results show that the gradients of slow thinking can distinguish correct and irrelevant reasoning paths. As a comparison, we conduct similar gradient analyses on non-reasoning knowledge learning tasks, on which, however, trivially increasing the response length does not lead to similar behaviors of slow thinking. Our study strengthens fundamental understandings of LLM training and sheds novel insights on its efficiency and stability, which pave the way towards building a generalizable System-2 agent. Our code, data, and gradient statistics can be found in: https://github.com/MingLiiii/Layer_Gradient.

Summary

AI-Generated Summary

PDF644November 13, 2024