Non tutte le lingue sono uguali nei LLM: Migliorare le capacità multilingue attraverso il prompting a pensiero cross-linguistico
Not All Languages Are Created Equal in LLMs: Improving Multilingual Capability by Cross-Lingual-Thought Prompting
May 11, 2023
Autori: Haoyang Huang, Tianyi Tang, Dongdong Zhang, Wayne Xin Zhao, Ting Song, Yan Xia, Furu Wei
cs.AI
Abstract
I grandi modelli linguistici (LLM) dimostrano una notevole capacità multilingue, ma le loro prestazioni variano sostanzialmente tra le diverse lingue. In questo lavoro, introduciamo un metodo semplice ma efficace, chiamato cross-lingual-thought prompting (XLT), per migliorare sistematicamente la capacità multilingue degli LLM. Nello specifico, XLT è un prompt generico che stimola le capacità di ragionamento cross-linguale e logico per migliorare le prestazioni dei compiti in diverse lingue. Abbiamo condotto valutazioni complete su 7 benchmark tipici relativi a compiti di ragionamento, comprensione e generazione, coprendo sia lingue ad alta risorsa che a bassa risorsa. I risultati sperimentali mostrano che XLT non solo migliora notevolmente le prestazioni di vari compiti multilingue, ma riduce anche significativamente il divario tra la prestazione media e la migliore prestazione di ciascun compito in lingue diverse. In particolare, XLT apporta un miglioramento medio di oltre 10 punti nei compiti di ragionamento aritmetico e di risposta a domande a dominio aperto.
English
Large language models (LLMs) demonstrate impressive multilingual capability,
but their performance varies substantially across different languages. In this
work, we introduce a simple yet effective method, called cross-lingual-thought
prompting (XLT), to systematically improve the multilingual capability of LLMs.
Specifically, XLT is a generic template prompt that stimulates cross-lingual
and logical reasoning skills to enhance task performance across languages. We
conduct comprehensive evaluations on 7 typical benchmarks related to reasoning,
understanding, and generation tasks, covering both high-resource and
low-resource languages. Experimental results show that XLT not only remarkably
enhances the performance of various multilingual tasks but also significantly
reduces the gap between the average performance and the best performance of
each task in different languages. Notably, XLT brings over 10 points of average
improvement in arithmetic reasoning and open-domain question-answering tasks.