ChatPaper.aiChatPaper

Sobre la Adquisición de Representaciones Gramaticales Compartidas en Modelos de Lenguaje Bilingües

On the Acquisition of Shared Grammatical Representations in Bilingual Language Models

March 5, 2025
Autores: Catherine Arnett, Tyler A. Chang, James A. Michaelov, Benjamin K. Bergen
cs.AI

Resumen

Si bien la transferencia interlingüística es crucial para las capacidades multilingües de los modelos de lenguaje contemporáneos, no se comprende bien cómo ocurre. En este artículo, nos preguntamos qué le sucede a un modelo de lenguaje monolingüe cuando comienza a ser entrenado en un segundo idioma. Específicamente, entrenamos modelos bilingües pequeños para los cuales controlamos la cantidad de datos para cada idioma y el orden de exposición a los idiomas. Para encontrar evidencia de representaciones multilingües compartidas, recurrimos al priming estructural, un método utilizado para estudiar representaciones gramaticales en humanos. Primero replicamos resultados previos de priming estructural interlingüístico y encontramos que, después de controlar la cantidad de datos de entrenamiento y la exposición al idioma, existen efectos asimétricos entre pares de idiomas y direcciones. Argumentamos que esta asimetría podría dar forma a hipótesis sobre los efectos de priming estructural en humanos. También encontramos que los efectos de priming estructural son menos robustos para pares de idiomas menos similares, destacando las posibles limitaciones del aprendizaje por transferencia interlingüística y las representaciones compartidas para idiomas tipológicamente diversos.
English
While crosslingual transfer is crucial to contemporary language models' multilingual capabilities, how it occurs is not well understood. In this paper, we ask what happens to a monolingual language model when it begins to be trained on a second language. Specifically, we train small bilingual models for which we control the amount of data for each language and the order of language exposure. To find evidence of shared multilingual representations, we turn to structural priming, a method used to study grammatical representations in humans. We first replicate previous crosslingual structural priming results and find that after controlling for training data quantity and language exposure, there are asymmetrical effects across language pairs and directions. We argue that this asymmetry may shape hypotheses about human structural priming effects. We also find that structural priming effects are less robust for less similar language pairs, highlighting potential limitations of crosslingual transfer learning and shared representations for typologically diverse languages.

Summary

AI-Generated Summary

PDF31March 7, 2025