ChatPaper.aiChatPaper

Teste di Attenzione nei Grandi Modelli Linguistici: Una Rassegna

Attention Heads of Large Language Models: A Survey

September 5, 2024
Autori: Zifan Zheng, Yezhaohui Wang, Yuxin Huang, Shichao Song, Bo Tang, Feiyu Xiong, Zhiyu Li
cs.AI

Abstract

Dall'avvento di ChatGPT, i Large Language Model (LLM) si sono dimostrati eccellenti in vari compiti, ma rimangono prevalentemente sistemi "black-box". Di conseguenza, il loro sviluppo si basa fortemente su approcci guidati dai dati, limitando il miglioramento delle prestazioni attraverso modifiche all'architettura interna e ai percorsi di ragionamento. Pertanto, molti ricercatori hanno iniziato a esplorare i potenziali meccanismi interni dei LLM, con l'obiettivo di identificare l'essenza dei loro colli di bottiglia nel ragionamento, concentrandosi per lo più sulle teste di attenzione (attention heads). La nostra survey mira a far luce sui processi di ragionamento interni dei LLM concentrandosi sull'interpretabilità e sui meccanismi sottostanti delle teste di attenzione. Inizialmente, distilliamo il processo del pensiero umano in un framework a quattro stadi: Recupero della Conoscenza, Identificazione In-Contesto, Ragionamento Latente e Preparazione dell'Espressione. Utilizzando questo framework, esaminiamo sistematicamente la ricerca esistente per identificare e categorizzare le funzioni di specifiche teste di attenzione. Inoltre, riassumiamo le metodologie sperimentali utilizzate per scoprire queste teste speciali, suddividendole in due categorie: metodi Modeling-Free e metodi Modeling-Required. Descriviamo anche i relativi metodi di valutazione e benchmark. Infine, discutiamo i limiti della ricerca attuale e proponiamo diverse direzioni future potenziali. La nostra lista di riferimenti è open-source all'indirizzo https://github.com/IAAR-Shanghai/Awesome-Attention-Heads.
English
Since the advent of ChatGPT, Large Language Models (LLMs) have excelled in various tasks but remain largely as black-box systems. Consequently, their development relies heavily on data-driven approaches, limiting performance enhancement through changes in internal architecture and reasoning pathways. As a result, many researchers have begun exploring the potential internal mechanisms of LLMs, aiming to identify the essence of their reasoning bottlenecks, with most studies focusing on attention heads. Our survey aims to shed light on the internal reasoning processes of LLMs by concentrating on the interpretability and underlying mechanisms of attention heads. We first distill the human thought process into a four-stage framework: Knowledge Recalling, In-Context Identification, Latent Reasoning, and Expression Preparation. Using this framework, we systematically review existing research to identify and categorize the functions of specific attention heads. Furthermore, we summarize the experimental methodologies used to discover these special heads, dividing them into two categories: Modeling-Free methods and Modeling-Required methods. Also, we outline relevant evaluation methods and benchmarks. Finally, we discuss the limitations of current research and propose several potential future directions. Our reference list is open-sourced at https://github.com/IAAR-Shanghai/Awesome-Attention-Heads.
PDF925November 14, 2024