ChatPaper.aiChatPaper

Stuur je model waar het aandacht aan moet besteden: Post-hoc aandachtsturing voor grote taalmodellen

Tell Your Model Where to Attend: Post-hoc Attention Steering for LLMs

November 3, 2023
Auteurs: Qingru Zhang, Chandan Singh, Liyuan Liu, Xiaodong Liu, Bin Yu, Jianfeng Gao, Tuo Zhao
cs.AI

Samenvatting

In door mensen geschreven artikelen maken we vaak gebruik van de subtiliteiten van tekststijl, zoals vetgedrukte en cursieve tekst, om de aandacht van lezers te sturen. Deze tekstuele nadruk is essentieel voor lezers om de overgebrachte informatie te begrijpen. Bij interactie met grote taalmodellen (LLM's) hebben we een vergelijkbare behoefte: het sturen van het model om meer aandacht te besteden aan door de gebruiker gespecificeerde informatie, bijvoorbeeld een instructie. Bestaande methoden zijn echter beperkt tot het verwerken van platte tekst en ondersteunen een dergelijk mechanisme niet. Dit motiveert ons om PASTA te introduceren - Post-hoc Attention STeering Approach, een methode die LLM's in staat stelt tekst te lezen met door de gebruiker gespecificeerde nadruksmarkeringen. Hiertoe identificeert PASTA een kleine subset van aandachtskoppen en past precieze aandachtherweging toe op deze koppen, waardoor de aandacht van het model wordt gericht op door de gebruiker gespecificeerde delen. Net als bij prompting wordt PASTA toegepast tijdens de inferentie en is het niet nodig om modelparameters te wijzigen. Experimenten tonen aan dat PASTA het vermogen van een LLM om gebruikersinstructies te volgen of nieuwe kennis uit gebruikersinvoer te integreren aanzienlijk kan verbeteren, wat leidt tot een significante prestatieverbetering bij een verscheidenheid aan taken, bijvoorbeeld een gemiddelde nauwkeurigheidsverbetering van 22% voor LLAMA-7B. Onze code is openbaar beschikbaar op https://github.com/QingruZhang/PASTA.
English
In human-written articles, we often leverage the subtleties of text style, such as bold and italics, to guide the attention of readers. These textual emphases are vital for the readers to grasp the conveyed information. When interacting with large language models (LLMs), we have a similar need - steering the model to pay closer attention to user-specified information, e.g., an instruction. Existing methods, however, are constrained to process plain text and do not support such a mechanism. This motivates us to introduce PASTA - Post-hoc Attention STeering Approach, a method that allows LLMs to read text with user-specified emphasis marks. To this end, PASTA identifies a small subset of attention heads and applies precise attention reweighting on them, directing the model attention to user-specified parts. Like prompting, PASTA is applied at inference time and does not require changing any model parameters. Experiments demonstrate that PASTA can substantially enhance an LLM's ability to follow user instructions or integrate new knowledge from user inputs, leading to a significant performance improvement on a variety of tasks, e.g., an average accuracy improvement of 22% for LLAMA-7B. Our code is publicly available at https://github.com/QingruZhang/PASTA .
PDF142February 8, 2026