ChatPaper.aiChatPaper

ACE: Modifica della Conoscenza con Controllo dell'Attribuzione per il Richiamo di Fatti Multi-hop

ACE: Attribution-Controlled Knowledge Editing for Multi-hop Factual Recall

October 9, 2025
Autori: Jiayu Yang, Yuxuan Fan, Songning Lai, Shengen Wu, Jiaqi Tang, Chun Kang, Zhijiang Guo, Yutao Yue
cs.AI

Abstract

I modelli linguistici di grandi dimensioni (LLM) richiedono un'edizione efficiente della conoscenza (Knowledge Editing, KE) per aggiornare le informazioni fattuali, tuttavia i metodi esistenti mostrano un significativo decadimento delle prestazioni nel richiamo di fatti multi-hop. Questo fallimento è particolarmente evidente quando le modifiche coinvolgono soggetti intermedi impliciti all'interno delle catene di ragionamento. Attraverso un'analisi causale, riveliamo che questa limitazione deriva da una mancata considerazione di come la conoscenza concatenata sia rappresentata e utilizzata dinamicamente a livello neuronale. Scopriamo che durante il ragionamento multi-hop, i soggetti impliciti funzionano come neuroni di query, che attivano sequenzialmente i corrispondenti neuroni di valore attraverso i livelli del trasformatore per accumulare informazioni verso la risposta finale, un aspetto dinamico che il lavoro precedente di KE ha trascurato. Guidati da questa intuizione, proponiamo ACE: Attribution-Controlled Knowledge Editing for Multi-hop Factual Recall, un framework che sfrutta l'attribuzione a livello neuronale per identificare e modificare questi percorsi critici query-valore (Q-V). ACE fornisce una soluzione meccanicamente fondata per il KE multi-hop, superando empiricamente i metodi all'avanguardia del 9,44% su GPT-J e del 37,46% su Qwen3-8B. La nostra analisi rivela inoltre schemi di attivazione più granulari in Qwen3 e dimostra che l'interpretabilità semantica dei neuroni di valore è orchestrata dall'accumulo guidato dalle query. Questi risultati stabiliscono una nuova via per avanzare le capacità di KE basandosi su una comprensione principiata dei meccanismi interni di ragionamento.
English
Large Language Models (LLMs) require efficient knowledge editing (KE) to update factual information, yet existing methods exhibit significant performance decay in multi-hop factual recall. This failure is particularly acute when edits involve intermediate implicit subjects within reasoning chains. Through causal analysis, we reveal that this limitation stems from an oversight of how chained knowledge is dynamically represented and utilized at the neuron level. We discover that during multi hop reasoning, implicit subjects function as query neurons, which sequentially activate corresponding value neurons across transformer layers to accumulate information toward the final answer, a dynamic prior KE work has overlooked. Guided by this insight, we propose ACE: Attribution-Controlled Knowledge Editing for Multi-hop Factual Recall, a framework that leverages neuron-level attribution to identify and edit these critical query-value (Q-V) pathways. ACE provides a mechanistically grounded solution for multi-hop KE, empirically outperforming state-of-the-art methods by 9.44% on GPT-J and 37.46% on Qwen3-8B. Our analysis further reveals more fine-grained activation patterns in Qwen3 and demonstrates that the semantic interpretability of value neurons is orchestrated by query-driven accumulation. These findings establish a new pathway for advancing KE capabilities based on the principled understanding of internal reasoning mechanisms.
PDF12October 13, 2025