ChatPaper.aiChatPaper

LASA: Alinhamento Semântico Independente de Idioma no Gargalo Semântico para Segurança de LLMs

LASA: Language-Agnostic Semantic Alignment at the Semantic Bottleneck for LLM Safety

April 13, 2026
Autores: Junxiao Yang, Haoran Liu, Jinzhe Tu, Jiale Cheng, Zhexin Zhang, Shiyao Cui, Jiaqi Weng, Jialing Tao, Hui Xue, Hongning Wang, Han Qiu, Minlie Huang
cs.AI

Resumo

Os grandes modelos de linguagem (LLMs) frequentemente demonstram forte desempenho de segurança em idiomas de alta disponibilidade de recursos, mas exibem vulnerabilidades severas quando interrogados em idiomas de baixa disponibilidade de recursos. Atribuímos essa lacuna a um descompasso entre a capacidade de compreensão semântica agnóstica ao idioma e o alinhamento de segurança dominado pelo idioma, que é tendencioso para línguas de alta disponibilidade de recursos. Consistente com esta hipótese, identificamos empiricamente o gargalo semântico nos LLMs, uma camada intermediária na qual a geometria das representações do modelo é governada principalmente pelo conteúdo semântico compartilhado, e não pela identidade do idioma. Com base nesta observação, propomos o Alinhamento Semântico Agnóstico ao Idioma (LASA), que ancora o alinhamento de segurança diretamente nos gargalos semânticos. Experimentos mostram que o LASA melhora substancialmente a segurança em todos os idiomas: a taxa média de sucesso de ataques (ASR) cai de 24,7% para 2,8% no LLaMA-3.1-8B-Instruct e permanece em torno de 3-4% nos modelos Qwen2.5 e Qwen3 Instruct (7B-32B). Em conjunto, nossa análise e método oferecem uma perspectiva em nível de representação sobre a segurança dos LLMs, sugerindo que o alinhamento de segurança requer ancorar a compreensão de segurança não no texto superficial, mas no espaço semântico agnóstico ao idioma do modelo.
English
Large language models (LLMs) often demonstrate strong safety performance in high-resource languages, yet exhibit severe vulnerabilities when queried in low-resource languages. We attribute this gap to a mismatch between language-agnostic semantic understanding ability and language-dominant safety alignment biased toward high-resource languages. Consistent with this hypothesis, we empirically identify the semantic bottleneck in LLMs, an intermediate layer in which the geometry of model representations is governed primarily by shared semantic content rather than language identity. Building on this observation, we propose Language-Agnostic Semantic Alignment (LASA), which anchors safety alignment directly in semantic bottlenecks. Experiments show that LASA substantially improves safety across all languages: average attack success rate (ASR) drops from 24.7% to 2.8% on LLaMA-3.1-8B-Instruct and remains around 3-4% across Qwen2.5 and Qwen3 Instruct models (7B-32B). Together, our analysis and method offer a representation-level perspective on LLM safety, suggesting that safety alignment requires anchoring safety understanding not in surface text, but in the model's language-agnostic semantic space.
PDF52April 18, 2026