ChatPaper.aiChatPaper

De Assistent-as: Positionering en Stabilisatie van de Standaardpersona van Taalmodellen

The Assistant Axis: Situating and Stabilizing the Default Persona of Language Models

January 15, 2026
Auteurs: Christina Lu, Jack Gallagher, Jonathan Michala, Kyle Fish, Jack Lindsey
cs.AI

Samenvatting

Grote taalmodellen kunnen een verscheidenheid aan persona's vertegenwoordigen, maar vallen doorgaans terug op een behulpzame Assistent-identiteit die is aangeleerd tijdens de nafase van de training. Wij onderzoeken de structuur van de ruimte van modelpersona's door activatierichtingen te extraheren die corresponderen met diverse karakterarchetypen. In verschillende modellen ontdekken we dat de belangrijkste component van deze persoonlijke ruimte een "Assistent-as" is, die weergeeft in hoeverre een model functioneert in zijn standaard Assistent-modus. Sturen in de richting van de Assistent versterkt behulpzaam en onschadelijk gedrag; wegsturen vergroot de neiging van het model om zich als andere entiteiten te identificeren. Bovendien leidt wegsturen met extremere waarden vaak tot een mystieke, theatrale spreekstijl. We ontdekken dat deze as ook aanwezig is in vooraf getrainde modellen, waar deze voornamelijk behulpzame menselijke archetypen zoals consultants en coaches bevordert en spirituele archetypen remt. Het meten van afwijkingen langs de Assistent-as voorspelt "persona-drift", een fenomeen waarbij modellen vervallen in schadelijk of bizar gedrag dat niet kenmerkend is voor hun gebruikelijke persona. We stellen vast dat persona-drift vaak wordt veroorzaakt door gesprekken die meta-reflectie op de processen van het model eisen, of gesprekken met emotioneel kwetsbare gebruikers. We tonen aan het beperken van activaties tot een vaste regio langs de Assistent-as het modelgedrag kan stabiliseren in deze scenario's – en ook bij confrontatie met adversariële, op persona's gebaseerde jailbreaks. Onze resultaten suggereren dat de nafase van de training modellen naar een specifieke regio in de persoonlijke ruimte stuurt, maar ze er slechts losjes aan bindt, wat werk motiveert aan trainings- en stuurstrategieën die modellen dieper verankeren in een coherente persona.
English
Large language models can represent a variety of personas but typically default to a helpful Assistant identity cultivated during post-training. We investigate the structure of the space of model personas by extracting activation directions corresponding to diverse character archetypes. Across several different models, we find that the leading component of this persona space is an "Assistant Axis," which captures the extent to which a model is operating in its default Assistant mode. Steering towards the Assistant direction reinforces helpful and harmless behavior; steering away increases the model's tendency to identify as other entities. Moreover, steering away with more extreme values often induces a mystical, theatrical speaking style. We find this axis is also present in pre-trained models, where it primarily promotes helpful human archetypes like consultants and coaches and inhibits spiritual ones. Measuring deviations along the Assistant Axis predicts "persona drift," a phenomenon where models slip into exhibiting harmful or bizarre behaviors that are uncharacteristic of their typical persona. We find that persona drift is often driven by conversations demanding meta-reflection on the model's processes or featuring emotionally vulnerable users. We show that restricting activations to a fixed region along the Assistant Axis can stabilize model behavior in these scenarios -- and also in the face of adversarial persona-based jailbreaks. Our results suggest that post-training steers models toward a particular region of persona space but only loosely tethers them to it, motivating work on training and steering strategies that more deeply anchor models to a coherent persona.
PDF122February 7, 2026