ChatPaper.aiChatPaper

EXAONE 3.0 Modello Linguistico con 7,8 Miliardi di Parametri Ottimizzato per Istruzioni

EXAONE 3.0 7.8B Instruction Tuned Language Model

August 7, 2024
Autori: LG AI Research, Soyoung An, Kyunghoon Bae, Eunbi Choi, Stanley Jungkyu Choi, Yemuk Choi, Seokhee Hong, Yeonjung Hong, Junwon Hwang, Hyojin Jeon, Gerrard Jeongwon Jo, Hyunjik Jo, Jiyeon Jung, Yountae Jung, Euisoon Kim, Hyosang Kim, Joonkee Kim, Seonghwan Kim, Soyeon Kim, Sunkyoung Kim, Yireun Kim, Youchul Kim, Edward Hwayoung Lee, Haeju Lee, Honglak Lee, Jinsik Lee, Kyungmin Lee, Moontae Lee, Seungjun Lee, Woohyung Lim, Sangha Park, Sooyoun Park, Yongmin Park, Boseong Seo, Sihoon Yang, Heuiyeen Yeen, Kyungjae Yoo, Hyeongu Yun
cs.AI

Abstract

Presentiamo EXAONE 3.0, un modello linguistico ottimizzato per istruzioni, il primo modello aperto della famiglia di Large Language Models (LLM) sviluppato da LG AI Research. Tra le diverse dimensioni del modello, rilasciamo pubblicamente il modello da 7,8 miliardi di parametri ottimizzato per istruzioni, con l'obiettivo di promuovere la ricerca aperta e l'innovazione. Attraverso valutazioni estese su un'ampia gamma di benchmark pubblici e interni, EXAONE 3.0 dimostra prestazioni altamente competitive nel mondo reale, con capacità di seguire istruzioni, rispetto ad altri modelli aperti all'avanguardia di dimensioni simili. La nostra analisi comparativa mostra che EXAONE 3.0 eccelle in particolare nella lingua coreana, raggiungendo al contempo prestazioni convincenti in compiti generali e ragionamenti complessi. Con la sua forte efficacia nel mondo reale e la competenza bilingue, speriamo che EXAONE continui a contribuire ai progressi nell'Expert AI. Il nostro modello EXAONE 3.0 ottimizzato per istruzioni è disponibile all'indirizzo https://huggingface.co/LGAI-EXAONE/EXAONE-3.0-7.8B-Instruct.
English
We introduce EXAONE 3.0 instruction-tuned language model, the first open model in the family of Large Language Models (LLMs) developed by LG AI Research. Among different model sizes, we publicly release the 7.8B instruction-tuned model to promote open research and innovations. Through extensive evaluations across a wide range of public and in-house benchmarks, EXAONE 3.0 demonstrates highly competitive real-world performance with instruction-following capability against other state-of-the-art open models of similar size. Our comparative analysis shows that EXAONE 3.0 excels particularly in Korean, while achieving compelling performance across general tasks and complex reasoning. With its strong real-world effectiveness and bilingual proficiency, we hope that EXAONE keeps contributing to advancements in Expert AI. Our EXAONE 3.0 instruction-tuned model is available at https://huggingface.co/LGAI-EXAONE/EXAONE-3.0-7.8B-Instruct
PDF353November 28, 2024