ChatPaper.aiChatPaper

Het Ontdekken van Invloedrijke Neuronpaden in Vision Transformers

Discovering Influential Neuron Path in Vision Transformers

March 12, 2025
Auteurs: Yifan Wang, Yifei Liu, Yingdong Shi, Changming Li, Anqi Pang, Sibei Yang, Jingyi Yu, Kan Ren
cs.AI

Samenvatting

Vision Transformer-modellen vertonen enorme kracht, maar blijven ondoorzichtig voor menselijk begrip, wat uitdagingen en risico's met zich meebrengt voor praktische toepassingen. Hoewel eerder onderzoek heeft geprobeerd deze modellen te ontrafelen via input-attributie en neuronrolanalyse, is er een opvallende leemte geweest in het overwegen van laagniveau-informatie en het holistische pad van informatieoverdracht tussen lagen. In dit artikel onderzoeken we het belang van invloedrijke neuronpaden binnen vision Transformers, wat een pad van neuronen is van de modelinput naar de output dat de modelinferentie het meest significant beïnvloedt. We stellen eerst een gezamenlijke invloedsmaat voor om de bijdrage van een set neuronen aan het modelresultaat te beoordelen. Verder bieden we een laagprogressieve neuronlokalisatiebenadering die efficiënt de meest invloedrijke neuron in elke laag selecteert, in een poging het cruciale neuronpad van input naar output binnen het doelmodel te ontdekken. Onze experimenten tonen de superioriteit van onze methode aan bij het vinden van het meest invloedrijke neuronpad waarlangs de informatie stroomt, vergeleken met bestaande baseline-oplossingen. Daarnaast hebben de neuronpaden aangetoond dat vision Transformers een specifiek intern werkingsmechanisme vertonen voor het verwerken van visuele informatie binnen dezelfde beeldcategorie. We analyseren verder de sleuteleffecten van deze neuronen op de beeldclassificatietaak, wat aantoont dat de gevonden neuronpaden al de modelcapaciteit op downstreamtaken hebben behouden, wat ook inzicht kan bieden voor real-world toepassingen zoals modelpruning. De projectwebsite, inclusief implementatiecode, is beschikbaar op https://foundation-model-research.github.io/NeuronPath/.
English
Vision Transformer models exhibit immense power yet remain opaque to human understanding, posing challenges and risks for practical applications. While prior research has attempted to demystify these models through input attribution and neuron role analysis, there's been a notable gap in considering layer-level information and the holistic path of information flow across layers. In this paper, we investigate the significance of influential neuron paths within vision Transformers, which is a path of neurons from the model input to output that impacts the model inference most significantly. We first propose a joint influence measure to assess the contribution of a set of neurons to the model outcome. And we further provide a layer-progressive neuron locating approach that efficiently selects the most influential neuron at each layer trying to discover the crucial neuron path from input to output within the target model. Our experiments demonstrate the superiority of our method finding the most influential neuron path along which the information flows, over the existing baseline solutions. Additionally, the neuron paths have illustrated that vision Transformers exhibit some specific inner working mechanism for processing the visual information within the same image category. We further analyze the key effects of these neurons on the image classification task, showcasing that the found neuron paths have already preserved the model capability on downstream tasks, which may also shed some lights on real-world applications like model pruning. The project website including implementation code is available at https://foundation-model-research.github.io/NeuronPath/.
PDF62March 14, 2025