ChatPaper.aiChatPaper

Interpretabilità su larga scala: identificazione dei meccanismi causali in Alpaca

Interpretability at Scale: Identifying Causal Mechanisms in Alpaca

May 15, 2023
Autori: Zhengxuan Wu, Atticus Geiger, Christopher Potts, Noah D. Goodman
cs.AI

Abstract

Ottenere spiegazioni interpretabili per l'uomo di modelli linguistici di grandi dimensioni e ad ampio scopo è un obiettivo urgente per la sicurezza dell'IA. Tuttavia, è altrettanto importante che i nostri metodi di interpretabilità siano fedeli alle dinamiche causali sottostanti il comportamento del modello e siano in grado di generalizzare in modo robusto a input non visti. La Ricerca di Allineamento Distribuito (Distributed Alignment Search, DAS) è un potente metodo di discesa del gradiente basato su una teoria di astrazione causale che ha scoperto allineamenti perfetti tra algoritmi simbolici interpretabili e piccoli modelli di deep learning ottimizzati per compiti specifici. Nel presente articolo, scaliamo significativamente la DAS sostituendo i rimanenti passaggi di ricerca a forza bruta con parametri appresi — un approccio che chiamiamo DAS. Ciò ci consente di cercare in modo efficiente una struttura causale interpretabile in grandi modelli linguistici mentre seguono istruzioni. Applichiamo la DAS al modello Alpaca (7 miliardi di parametri), che, senza ulteriori modifiche, risolve un semplice problema di ragionamento numerico. Con la DAS, scopriamo che Alpaca lo fa implementando un modello causale con due variabili booleane interpretabili. Inoltre, troviamo che l'allineamento delle rappresentazioni neurali con queste variabili è robusto ai cambiamenti negli input e nelle istruzioni. Questi risultati segnano un primo passo verso una comprensione profonda del funzionamento interno dei nostri modelli linguistici più grandi e più ampiamente utilizzati.
English
Obtaining human-interpretable explanations of large, general-purpose language models is an urgent goal for AI safety. However, it is just as important that our interpretability methods are faithful to the causal dynamics underlying model behavior and able to robustly generalize to unseen inputs. Distributed Alignment Search (DAS) is a powerful gradient descent method grounded in a theory of causal abstraction that uncovered perfect alignments between interpretable symbolic algorithms and small deep learning models fine-tuned for specific tasks. In the present paper, we scale DAS significantly by replacing the remaining brute-force search steps with learned parameters -- an approach we call DAS. This enables us to efficiently search for interpretable causal structure in large language models while they follow instructions. We apply DAS to the Alpaca model (7B parameters), which, off the shelf, solves a simple numerical reasoning problem. With DAS, we discover that Alpaca does this by implementing a causal model with two interpretable boolean variables. Furthermore, we find that the alignment of neural representations with these variables is robust to changes in inputs and instructions. These findings mark a first step toward deeply understanding the inner-workings of our largest and most widely deployed language models.
PDF20May 8, 2026