EXAONE 3.0 Modello Linguistico con 7,8 Miliardi di Parametri Ottimizzato per Istruzioni
EXAONE 3.0 7.8B Instruction Tuned Language Model
August 7, 2024
Autori: LG AI Research, Soyoung An, Kyunghoon Bae, Eunbi Choi, Stanley Jungkyu Choi, Yemuk Choi, Seokhee Hong, Yeonjung Hong, Junwon Hwang, Hyojin Jeon, Gerrard Jeongwon Jo, Hyunjik Jo, Jiyeon Jung, Yountae Jung, Euisoon Kim, Hyosang Kim, Joonkee Kim, Seonghwan Kim, Soyeon Kim, Sunkyoung Kim, Yireun Kim, Youchul Kim, Edward Hwayoung Lee, Haeju Lee, Honglak Lee, Jinsik Lee, Kyungmin Lee, Moontae Lee, Seungjun Lee, Woohyung Lim, Sangha Park, Sooyoun Park, Yongmin Park, Boseong Seo, Sihoon Yang, Heuiyeen Yeen, Kyungjae Yoo, Hyeongu Yun
cs.AI
Abstract
Presentiamo EXAONE 3.0, un modello linguistico ottimizzato per istruzioni, il primo modello aperto della famiglia di Large Language Models (LLM) sviluppato da LG AI Research. Tra le diverse dimensioni del modello, rilasciamo pubblicamente il modello da 7,8 miliardi di parametri ottimizzato per istruzioni, con l'obiettivo di promuovere la ricerca aperta e l'innovazione. Attraverso valutazioni estese su un'ampia gamma di benchmark pubblici e interni, EXAONE 3.0 dimostra prestazioni altamente competitive nel mondo reale, con capacità di seguire istruzioni, rispetto ad altri modelli aperti all'avanguardia di dimensioni simili. La nostra analisi comparativa mostra che EXAONE 3.0 eccelle in particolare nella lingua coreana, raggiungendo al contempo prestazioni convincenti in compiti generali e ragionamenti complessi. Con la sua forte efficacia nel mondo reale e la competenza bilingue, speriamo che EXAONE continui a contribuire ai progressi nell'Expert AI. Il nostro modello EXAONE 3.0 ottimizzato per istruzioni è disponibile all'indirizzo https://huggingface.co/LGAI-EXAONE/EXAONE-3.0-7.8B-Instruct.
English
We introduce EXAONE 3.0 instruction-tuned language model, the first open
model in the family of Large Language Models (LLMs) developed by LG AI
Research. Among different model sizes, we publicly release the 7.8B
instruction-tuned model to promote open research and innovations. Through
extensive evaluations across a wide range of public and in-house benchmarks,
EXAONE 3.0 demonstrates highly competitive real-world performance with
instruction-following capability against other state-of-the-art open models of
similar size. Our comparative analysis shows that EXAONE 3.0 excels
particularly in Korean, while achieving compelling performance across general
tasks and complex reasoning. With its strong real-world effectiveness and
bilingual proficiency, we hope that EXAONE keeps contributing to advancements
in Expert AI. Our EXAONE 3.0 instruction-tuned model is available at
https://huggingface.co/LGAI-EXAONE/EXAONE-3.0-7.8B-Instruct