ChatPaper.aiChatPaper

EXAONE 3.0 7.8B Instructie-afgestemd Taalmodel

EXAONE 3.0 7.8B Instruction Tuned Language Model

August 7, 2024
Auteurs: LG AI Research, Soyoung An, Kyunghoon Bae, Eunbi Choi, Stanley Jungkyu Choi, Yemuk Choi, Seokhee Hong, Yeonjung Hong, Junwon Hwang, Hyojin Jeon, Gerrard Jeongwon Jo, Hyunjik Jo, Jiyeon Jung, Yountae Jung, Euisoon Kim, Hyosang Kim, Joonkee Kim, Seonghwan Kim, Soyeon Kim, Sunkyoung Kim, Yireun Kim, Youchul Kim, Edward Hwayoung Lee, Haeju Lee, Honglak Lee, Jinsik Lee, Kyungmin Lee, Moontae Lee, Seungjun Lee, Woohyung Lim, Sangha Park, Sooyoun Park, Yongmin Park, Boseong Seo, Sihoon Yang, Heuiyeen Yeen, Kyungjae Yoo, Hyeongu Yun
cs.AI

Samenvatting

We introduceren het EXAONE 3.0 instructie-afgestemde taalmodel, het eerste open model in de familie van Large Language Models (LLMs) ontwikkeld door LG AI Research. Onder de verschillende modelgroottes maken we het 7.8B instructie-afgestemde model publiekelijk beschikbaar om open onderzoek en innovatie te bevorderen. Door middel van uitgebreide evaluaties over een breed scala aan publieke en interne benchmarks, toont EXAONE 3.0 een zeer competitieve prestaties in de praktijk met instructie-volgende capaciteiten in vergelijking met andere state-of-the-art open modellen van vergelijkbare grootte. Onze vergelijkende analyse laat zien dat EXAONE 3.0 vooral uitblinkt in het Koreaans, terwijl het overtuigende prestaties levert in algemene taken en complex redeneren. Met zijn sterke effectiviteit in de praktijk en tweetalige vaardigheden, hopen we dat EXAONE blijft bijdragen aan de vooruitgang in Expert AI. Ons EXAONE 3.0 instructie-afgestemde model is beschikbaar op https://huggingface.co/LGAI-EXAONE/EXAONE-3.0-7.8B-Instruct.
English
We introduce EXAONE 3.0 instruction-tuned language model, the first open model in the family of Large Language Models (LLMs) developed by LG AI Research. Among different model sizes, we publicly release the 7.8B instruction-tuned model to promote open research and innovations. Through extensive evaluations across a wide range of public and in-house benchmarks, EXAONE 3.0 demonstrates highly competitive real-world performance with instruction-following capability against other state-of-the-art open models of similar size. Our comparative analysis shows that EXAONE 3.0 excels particularly in Korean, while achieving compelling performance across general tasks and complex reasoning. With its strong real-world effectiveness and bilingual proficiency, we hope that EXAONE keeps contributing to advancements in Expert AI. Our EXAONE 3.0 instruction-tuned model is available at https://huggingface.co/LGAI-EXAONE/EXAONE-3.0-7.8B-Instruct
PDF353February 8, 2026