ChatPaper.aiChatPaper

Niet Alle Talen Zijn Gelijk in LLM's: Verbetering van Multilinguale Capaciteiten door Cross-Linguale Denkprompts

Not All Languages Are Created Equal in LLMs: Improving Multilingual Capability by Cross-Lingual-Thought Prompting

May 11, 2023
Auteurs: Haoyang Huang, Tianyi Tang, Dongdong Zhang, Wayne Xin Zhao, Ting Song, Yan Xia, Furu Wei
cs.AI

Samenvatting

Grote taalmodellen (LLMs) tonen indrukwekkende meertalige capaciteiten, maar hun prestaties variëren aanzienlijk tussen verschillende talen. In dit werk introduceren we een eenvoudige maar effectieve methode, genaamd cross-lingual-thought prompting (XLT), om de meertalige capaciteit van LLMs systematisch te verbeteren. Specifiek is XLT een generieke sjabloonprompt die cross-linguale en logische redeneervaardigheden stimuleert om de taakprestaties over verschillende talen te verbeteren. We voeren uitgebreide evaluaties uit op 7 typische benchmarks gerelateerd aan redeneren, begrijpen en generatietaken, waarbij zowel hoog- als laag-resourcetalen worden bestreken. Experimentele resultaten tonen aan dat XLT niet alleen de prestaties van diverse meertalige taken aanzienlijk verbetert, maar ook de kloof tussen de gemiddelde prestaties en de beste prestaties van elke taak in verschillende talen significant verkleint. Opmerkelijk is dat XLT een gemiddelde verbetering van meer dan 10 punten oplevert in rekenkundig redeneren en open-domein vraag-antwoordtaken.
English
Large language models (LLMs) demonstrate impressive multilingual capability, but their performance varies substantially across different languages. In this work, we introduce a simple yet effective method, called cross-lingual-thought prompting (XLT), to systematically improve the multilingual capability of LLMs. Specifically, XLT is a generic template prompt that stimulates cross-lingual and logical reasoning skills to enhance task performance across languages. We conduct comprehensive evaluations on 7 typical benchmarks related to reasoning, understanding, and generation tasks, covering both high-resource and low-resource languages. Experimental results show that XLT not only remarkably enhances the performance of various multilingual tasks but also significantly reduces the gap between the average performance and the best performance of each task in different languages. Notably, XLT brings over 10 points of average improvement in arithmetic reasoning and open-domain question-answering tasks.
PDF10December 15, 2024