ChatPaper.aiChatPaper

За пределами логарифмического правдоподобия: вероятностные цели для контролируемой тонкой настройки в континууме возможностей модели

Beyond Log Likelihood: Probability-Based Objectives for Supervised Fine-Tuning across the Model Capability Continuum

October 1, 2025
Авторы: Gaotang Li, Ruizhong Qiu, Xiusi Chen, Heng Ji, Hanghang Tong
cs.AI

Аннотация

Контролируемая тонкая настройка (SFT) является стандартным подходом для посттренировки больших языковых моделей (LLM), однако она часто демонстрирует ограниченную обобщаемость. Мы связываем это ограничение с её стандартной целью обучения: отрицательным логарифмическим правдоподобием (NLL). Хотя NLL оптимально при обучении с нуля, посттренировка работает в другой парадигме и может нарушать его предположения об оптимальности, поскольку модели уже содержат априорные знания, связанные с задачами, а обучающие данные могут быть длинными и зашумлёнными. В связи с этим мы исследуем общее семейство вероятностных целей и анализируем их эффективность в различных условиях. Благодаря всесторонним экспериментам и обширным исследованиям на 7 архитектурах моделей, 14 бенчмарках и 3 доменах, мы выявляем ключевой параметр, определяющий поведение целей: континуум возможностей модели. Вблизи сильного конца континуума цели, склоняющиеся к априорным знаниям и снижающие вес маловероятных токенов (например, -p, -p^{10}, пороговые варианты), стабильно превосходят NLL; на слабом конце доминирует NLL; в промежуточной зоне ни одна цель не преобладает. Наш теоретический анализ дополнительно поясняет, как цели меняются местами вдоль континуума, предоставляя принципиальную основу для адаптации целей к возможностям модели. Наш код доступен по адресу https://github.com/GaotangLi/Beyond-Log-Likelihood.
English
Supervised fine-tuning (SFT) is the standard approach for post-training large language models (LLMs), yet it often shows limited generalization. We trace this limitation to its default training objective: negative log likelihood (NLL). While NLL is classically optimal when training from scratch, post-training operates in a different paradigm and could violate its optimality assumptions, where models already encode task-relevant priors and supervision can be long and noisy. To this end, we study a general family of probability-based objectives and characterize their effectiveness under different conditions. Through comprehensive experiments and extensive ablation studies across 7 model backbones, 14 benchmarks, and 3 domains, we uncover a critical dimension that governs objective behavior: the model-capability continuum. Near the model-strong end, prior-leaning objectives that downweight low-probability tokens (e.g., -p, -p^{10}, thresholded variants) consistently outperform NLL; toward the model-weak end, NLL dominates; in between, no single objective prevails. Our theoretical analysis further elucidates how objectives trade places across the continuum, providing a principled foundation for adapting objectives to model capability. Our code is available at https://github.com/GaotangLi/Beyond-Log-Likelihood.
PDF82October 2, 2025