ChatPaper.aiChatPaper

비전 트랜스포머에서 영향력 있는 뉴런 경로 발견하기

Discovering Influential Neuron Path in Vision Transformers

March 12, 2025
저자: Yifan Wang, Yifei Liu, Yingdong Shi, Changming Li, Anqi Pang, Sibei Yang, Jingyi Yu, Kan Ren
cs.AI

초록

비전 트랜스포머(Vision Transformer) 모델은 엄청난 성능을 보이지만 인간의 이해를 넘어서는 불투명성을 가지고 있어 실용적인 응용에 있어 도전과 위험을 안고 있습니다. 기존 연구에서는 입력 속성 분석과 뉴런 역할 분석을 통해 이러한 모델을 해석하려는 시도가 있었지만, 계층 수준의 정보와 계층 간 정보 흐름의 전체적인 경로를 고려하는 데에는 상당한 공백이 있었습니다. 본 논문에서는 비전 트랜스포머 내에서 가장 중요한 영향을 미치는 뉴런 경로, 즉 모델 입력부터 출력까지 모델 추론에 가장 큰 영향을 미치는 뉴런들의 경로를 연구합니다. 먼저, 우리는 모델 결과에 대한 일련의 뉴런들의 기여도를 평가하기 위한 공동 영향력 측정 방법을 제안합니다. 그리고 대상 모델 내에서 입력부터 출력까지의 중요한 뉴런 경로를 발견하기 위해 각 계층에서 가장 영향력 있는 뉴런을 효율적으로 선택하는 계층별 점진적 뉴런 위치 지정 방법을 추가로 제시합니다. 우리의 실험은 정보가 흐르는 가장 영향력 있는 뉴런 경로를 찾는 데 있어 기존의 베이스라인 솔루션보다 우리의 방법이 우수함을 입증합니다. 또한, 뉴런 경로는 비전 트랜스포머가 동일한 이미지 카테고리 내에서 시각 정보를 처리하기 위한 특정한 내부 작동 메커니즘을 가지고 있음을 보여줍니다. 우리는 이미지 분류 작업에서 이러한 뉴런들의 주요 효과를 추가로 분석하며, 발견된 뉴런 경로가 이미 하위 작업에서의 모델 능력을 보존하고 있음을 보여줍니다. 이는 모델 가지치기와 같은 실제 응용에도 유용한 통찰을 제공할 수 있습니다. 구현 코드를 포함한 프로젝트 웹사이트는 https://foundation-model-research.github.io/NeuronPath/에서 확인할 수 있습니다.
English
Vision Transformer models exhibit immense power yet remain opaque to human understanding, posing challenges and risks for practical applications. While prior research has attempted to demystify these models through input attribution and neuron role analysis, there's been a notable gap in considering layer-level information and the holistic path of information flow across layers. In this paper, we investigate the significance of influential neuron paths within vision Transformers, which is a path of neurons from the model input to output that impacts the model inference most significantly. We first propose a joint influence measure to assess the contribution of a set of neurons to the model outcome. And we further provide a layer-progressive neuron locating approach that efficiently selects the most influential neuron at each layer trying to discover the crucial neuron path from input to output within the target model. Our experiments demonstrate the superiority of our method finding the most influential neuron path along which the information flows, over the existing baseline solutions. Additionally, the neuron paths have illustrated that vision Transformers exhibit some specific inner working mechanism for processing the visual information within the same image category. We further analyze the key effects of these neurons on the image classification task, showcasing that the found neuron paths have already preserved the model capability on downstream tasks, which may also shed some lights on real-world applications like model pruning. The project website including implementation code is available at https://foundation-model-research.github.io/NeuronPath/.

Summary

AI-Generated Summary

PDF62March 14, 2025