ChatPaper.aiChatPaper

Taalchirurgie in meertalige grote taalmodellen

Language Surgery in Multilingual Large Language Models

June 14, 2025
Auteurs: Joanito Agili Lopo, Muhammad Ravi Shulthan Habibi, Tack Hwa Wong, Muhammad Ilham Ghozali, Fajri Koto, Genta Indra Winata, Peerat Limkonchotiwat, Alham Fikri Aji, Samuel Cahyawijaya
cs.AI

Samenvatting

Grote Taalmodellen (LLMs) hebben opmerkelijke generalisatiecapaciteiten getoond over taken en talen heen, wat een revolutie teweeg heeft gebracht in natuurlijke taalverwerking. Dit artikel onderzoekt de van nature ontstane representatie-uitlijning in LLMs, met name in de middelste lagen, en de implicaties ervan voor het ontwarren van taal-specifieke en taal-onafhankelijke informatie. We bevestigen empirisch het bestaan van deze uitlijning, analyseren het gedrag ervan in vergelijking met expliciet ontworpen uitlijningsmodellen, en tonen het potentieel aan voor taal-specifieke manipulatie zonder semantische degradatie. Op basis van deze bevindingen stellen we Inference-Time Language Control (ITLC) voor, een nieuwe methode die gebruikmaakt van latente injectie om precieze cross-linguale taalcontrole mogelijk te maken en taalverwarring in LLMs te verminderen. Onze experimenten benadrukken de sterke cross-linguale controlecapaciteiten van ITLC terwijl de semantische integriteit in doeltalen behouden blijft. Bovendien tonen we de effectiviteit ervan aan bij het verminderen van het probleem van cross-linguale taalverwarring, dat zelfs in huidige grootschalige LLMs blijft bestaan en leidt tot inconsistente taalgeneratie. Dit werk bevordert ons begrip van representatie-uitlijning in LLMs en introduceert een praktische oplossing voor het verbeteren van hun cross-linguale prestaties.
English
Large Language Models (LLMs) have demonstrated remarkable generalization capabilities across tasks and languages, revolutionizing natural language processing. This paper investigates the naturally emerging representation alignment in LLMs, particularly in the middle layers, and its implications for disentangling language-specific and language-agnostic information. We empirically confirm the existence of this alignment, analyze its behavior in comparison to explicitly designed alignment models, and demonstrate its potential for language-specific manipulation without semantic degradation. Building on these findings, we propose Inference-Time Language Control (ITLC), a novel method that leverages latent injection to enable precise cross-lingual language control and mitigate language confusion in LLMs. Our experiments highlight ITLC's strong cross-lingual control capabilities while preserving semantic integrity in target languages. Furthermore, we demonstrate its effectiveness in alleviating the cross-lingual language confusion problem, which persists even in current large-scale LLMs, leading to inconsistent language generation. This work advances our understanding of representation alignment in LLMs and introduces a practical solution for enhancing their cross-lingual performance.
PDF162June 17, 2025