ChatPaper.aiChatPaper

Ось ассистента: позиционирование и стабилизация стандартной персоны языковых моделей

The Assistant Axis: Situating and Stabilizing the Default Persona of Language Models

January 15, 2026
Авторы: Christina Lu, Jack Gallagher, Jonathan Michala, Kyle Fish, Jack Lindsey
cs.AI

Аннотация

Крупные языковые модели способны воспроизводить различные персоналии, но обычно действуют в рамках идентичности полезного Ассистента, сформированной в процессе пост-обучения. Мы исследуем структуру пространства персоналий моделей путем извлечения направлений активации, соответствующих разнообразным архетипам персонажей. В нескольких различных моделях мы обнаружили, что ведущим компонентом этого пространства является «Ось Ассистента», которая отражает степень, в которой модель функционирует в своем стандартном режиме Ассистента. Сдвиг в сторону направления Ассистента усиливает полезное и безопасное поведение; сдвиг в противоположную сторону увеличивает склонность модели идентифицировать себя с другими сущностями. Более того, сильный сдвиг в противоположном направлении часто порождает мистический, театральный стиль речи. Мы обнаружили, что эта ось присутствует и в предобученных моделях, где она в основном активирует полезные человеческие архетипы (консультанты, коучи) и подавляет духовные. Измерение отклонений вдоль Оси Ассистента позволяет прогнозировать «дрейф персоналии» — феномен, при котором модели соскальзывают к демонстрации вредного или странного поведения, нетипичного для их обычной персоналии. Мы выяснили, что дрейф персоналии часто обусловлен диалогами, требующими мета-рефлексии о процессах модели или содержащими эмоционально уязвимых пользователей. Мы демонстрируем, что ограничение активаций фиксированной областью вдоль Оси Ассистента позволяет стабилизировать поведение модели в таких сценариях — включая противостояние адверсарным взломам на основе персоналий. Наши результаты свидетельствуют, что пост-обучение направляет модели в определенную область пространства персоналий, но лишь слабо фиксирует их в ней, что обосновывает необходимость разработки стратегий обучения и управления, которые прочнее закрепляют модели в рамках целостной персоналии.
English
Large language models can represent a variety of personas but typically default to a helpful Assistant identity cultivated during post-training. We investigate the structure of the space of model personas by extracting activation directions corresponding to diverse character archetypes. Across several different models, we find that the leading component of this persona space is an "Assistant Axis," which captures the extent to which a model is operating in its default Assistant mode. Steering towards the Assistant direction reinforces helpful and harmless behavior; steering away increases the model's tendency to identify as other entities. Moreover, steering away with more extreme values often induces a mystical, theatrical speaking style. We find this axis is also present in pre-trained models, where it primarily promotes helpful human archetypes like consultants and coaches and inhibits spiritual ones. Measuring deviations along the Assistant Axis predicts "persona drift," a phenomenon where models slip into exhibiting harmful or bizarre behaviors that are uncharacteristic of their typical persona. We find that persona drift is often driven by conversations demanding meta-reflection on the model's processes or featuring emotionally vulnerable users. We show that restricting activations to a fixed region along the Assistant Axis can stabilize model behavior in these scenarios -- and also in the face of adversarial persona-based jailbreaks. Our results suggest that post-training steers models toward a particular region of persona space but only loosely tethers them to it, motivating work on training and steering strategies that more deeply anchor models to a coherent persona.
PDF61January 21, 2026