ChatPaper.aiChatPaper

Neuronas multimodales en transformadores preentrenados exclusivamente con texto

Multimodal Neurons in Pretrained Text-Only Transformers

August 3, 2023
Autores: Sarah Schwettmann, Neil Chowdhury, Antonio Torralba
cs.AI

Resumen

Los modelos de lenguaje demuestran una capacidad notable para generalizar representaciones aprendidas en una modalidad a tareas posteriores en otras modalidades. ¿Podemos rastrear esta habilidad hasta neuronas individuales? Estudiamos el caso en el que un transformador de texto congelado se amplía con visión utilizando un codificador visual autosupervisado y una única proyección lineal aprendida en una tarea de imagen a texto. Las salidas de la capa de proyección no son inmediatamente decodificables en lenguaje que describa el contenido de la imagen; en cambio, encontramos que la traducción entre modalidades ocurre más profundamente dentro del transformador. Introducimos un procedimiento para identificar "neuronas multimodales" que convierten representaciones visuales en texto correspondiente, y decodificar los conceptos que inyectan en el flujo residual del modelo. En una serie de experimentos, mostramos que las neuronas multimodales operan sobre conceptos visuales específicos a través de las entradas, y tienen un efecto causal sistemático en la generación de descripciones de imágenes.
English
Language models demonstrate remarkable capacity to generalize representations learned in one modality to downstream tasks in other modalities. Can we trace this ability to individual neurons? We study the case where a frozen text transformer is augmented with vision using a self-supervised visual encoder and a single linear projection learned on an image-to-text task. Outputs of the projection layer are not immediately decodable into language describing image content; instead, we find that translation between modalities occurs deeper within the transformer. We introduce a procedure for identifying "multimodal neurons" that convert visual representations into corresponding text, and decoding the concepts they inject into the model's residual stream. In a series of experiments, we show that multimodal neurons operate on specific visual concepts across inputs, and have a systematic causal effect on image captioning.
PDF160December 15, 2024