ChatPaper.aiChatPaper

Modèle de langage EXAONE 3.0 7.8B ajusté par instruction

EXAONE 3.0 7.8B Instruction Tuned Language Model

August 7, 2024
Auteurs: LG AI Research, Soyoung An, Kyunghoon Bae, Eunbi Choi, Stanley Jungkyu Choi, Yemuk Choi, Seokhee Hong, Yeonjung Hong, Junwon Hwang, Hyojin Jeon, Gerrard Jeongwon Jo, Hyunjik Jo, Jiyeon Jung, Yountae Jung, Euisoon Kim, Hyosang Kim, Joonkee Kim, Seonghwan Kim, Soyeon Kim, Sunkyoung Kim, Yireun Kim, Youchul Kim, Edward Hwayoung Lee, Haeju Lee, Honglak Lee, Jinsik Lee, Kyungmin Lee, Moontae Lee, Seungjun Lee, Woohyung Lim, Sangha Park, Sooyoun Park, Yongmin Park, Boseong Seo, Sihoon Yang, Heuiyeen Yeen, Kyungjae Yoo, Hyeongu Yun
cs.AI

Résumé

Nous présentons EXAONE 3.0, un modèle de langage ajusté par instructions, premier modèle ouvert de la famille des grands modèles de langage (LLMs) développé par LG AI Research. Parmi les différentes tailles de modèles, nous rendons publiquement accessible le modèle ajusté par instructions de 7,8 milliards de paramètres afin de promouvoir la recherche ouverte et l'innovation. Grâce à des évaluations approfondies sur un large éventail de benchmarks publics et internes, EXAONE 3.0 démontre des performances compétitives dans des scénarios réels, avec une capacité à suivre des instructions, par rapport à d'autres modèles ouverts de pointe de taille similaire. Notre analyse comparative montre qu'EXAONE 3.0 excelle particulièrement en coréen, tout en affichant des performances convaincantes dans les tâches générales et le raisonnement complexe. Avec son efficacité réelle et sa maîtrise bilingue, nous espérons qu'EXAONE continuera à contribuer aux avancées dans le domaine de l'IA experte. Notre modèle EXAONE 3.0 ajusté par instructions est disponible à l'adresse suivante : https://huggingface.co/LGAI-EXAONE/EXAONE-3.0-7.8B-Instruct.
English
We introduce EXAONE 3.0 instruction-tuned language model, the first open model in the family of Large Language Models (LLMs) developed by LG AI Research. Among different model sizes, we publicly release the 7.8B instruction-tuned model to promote open research and innovations. Through extensive evaluations across a wide range of public and in-house benchmarks, EXAONE 3.0 demonstrates highly competitive real-world performance with instruction-following capability against other state-of-the-art open models of similar size. Our comparative analysis shows that EXAONE 3.0 excels particularly in Korean, while achieving compelling performance across general tasks and complex reasoning. With its strong real-world effectiveness and bilingual proficiency, we hope that EXAONE keeps contributing to advancements in Expert AI. Our EXAONE 3.0 instruction-tuned model is available at https://huggingface.co/LGAI-EXAONE/EXAONE-3.0-7.8B-Instruct

Summary

AI-Generated Summary

PDF363November 28, 2024