ChatPaper.aiChatPaper

SAKE: Verso la Modifica della Conoscenza degli Attributi Acustici nei Grandi Modelli Audio-Linguistici

SAKE: Towards Editing Auditory Attribute Knowledge of Large Audio-Language Models

October 19, 2025
Autori: Chih-Kai Yang, Yen-Ting Piao, Tzu-Wen Hsu, Szu-Wei Fu, Zhehuai Chen, Ke-Han Lu, Sung-Feng Huang, Chao-Han Huck Yang, Yu-Chiang Frank Wang, Yun-Nung Chen, Hung-yi Lee
cs.AI

Abstract

La modifica della conoscenza offre un modo efficiente per aggiornare le conoscenze del modello senza un addestramento completo, ma i lavori precedenti si sono concentrati quasi esclusivamente sulle modalità testuali o visive. Presentiamo SAKE, il primo benchmark specificamente progettato per modificare le conoscenze sugli attributi uditivi nei Modelli Audio-Linguistici di Grande Scala (LALM). A differenza degli aggiornamenti fattuali, SAKE si rivolge a diversi attributi uditivi astratti, catturando tipi di conoscenza che vanno oltre i domini testuali e visivi convenzionali. Valutiamo sette metodi di modifica su due LALM lungo quattro dimensioni: affidabilità, generalità, località audio/testo e portabilità. I risultati evidenziano sfide come preservare la conoscenza intra-attributo non correlata alla modifica, generalizzare le modifiche al ragionamento multimodale e mantenere le modifiche sotto aggiornamenti sequenziali. SAKE fornisce un framework principiato per studiare come la modifica della conoscenza si estende alle modalità uditive, aprendo nuove direzioni per il mantenimento e l'adattamento dei LALM in scenari reali più diversificati.
English
Knowledge editing offers an efficient way to update model knowledge without full retraining, but prior work has concentrated almost exclusively on textual or visual modalities. We introduce SAKE, the first benchmark specifically designed for editing auditory attribute knowledge in Large Audio-Language Models (LALMs). Unlike factual updates, SAKE targets several abstract auditory attributes, capturing knowledge types that go beyond conventional textual and visual domains. We benchmark seven editing methods on two LALMs along four dimensions: reliability, generality, audio/text locality, and portability. Results highlight challenges such as preserving intra-attribute knowledge unrelated to the edit, generalizing edits to multimodal reasoning, and maintaining edits under sequential updates. SAKE provides a principled framework to study how knowledge editing extends to the auditory modalities, opening new directions for maintaining and adapting LALMs in more diverse real-world scenarios.
PDF192December 2, 2025