EXAONE 3.0 7,8 Milliarden Anweisungen optimiertes Sprachmodell
EXAONE 3.0 7.8B Instruction Tuned Language Model
August 7, 2024
Autoren: LG AI Research, Soyoung An, Kyunghoon Bae, Eunbi Choi, Stanley Jungkyu Choi, Yemuk Choi, Seokhee Hong, Yeonjung Hong, Junwon Hwang, Hyojin Jeon, Gerrard Jeongwon Jo, Hyunjik Jo, Jiyeon Jung, Yountae Jung, Euisoon Kim, Hyosang Kim, Joonkee Kim, Seonghwan Kim, Soyeon Kim, Sunkyoung Kim, Yireun Kim, Youchul Kim, Edward Hwayoung Lee, Haeju Lee, Honglak Lee, Jinsik Lee, Kyungmin Lee, Moontae Lee, Seungjun Lee, Woohyung Lim, Sangha Park, Sooyoun Park, Yongmin Park, Boseong Seo, Sihoon Yang, Heuiyeen Yeen, Kyungjae Yoo, Hyeongu Yun
cs.AI
Zusammenfassung
Wir stellen das EXAONE 3.0 anweisungsoptimierte Sprachmodell vor, das erste offene Modell in der Familie der Large Language Models (LLMs), entwickelt von LG AI Research. Unter verschiedenen Modellgrößen veröffentlichen wir öffentlich das 7,8 Milliarden anweisungsoptimierte Modell, um offene Forschung und Innovationen zu fördern. Durch umfangreiche Evaluationen über eine breite Palette von öffentlichen und firmeninternen Benchmarks zeigt EXAONE 3.0 eine hochkompetitive Leistung in der realen Welt mit Anweisungsfolgefähigkeit im Vergleich zu anderen führenden offenen Modellen ähnlicher Größe. Unsere vergleichende Analyse zeigt, dass EXAONE 3.0 insbesondere in Koreanisch herausragt, während es überzeugende Leistungen bei allgemeinen Aufgaben und komplexem Denken erzielt. Mit seiner starken realen Wirksamkeit und zweisprachigen Kompetenz hoffen wir, dass EXAONE weiterhin zu Fortschritten in der Experten-KI beiträgt. Unser EXAONE 3.0 anweisungsoptimiertes Modell ist verfügbar unter https://huggingface.co/LGAI-EXAONE/EXAONE-3.0-7.8B-Instruct.
English
We introduce EXAONE 3.0 instruction-tuned language model, the first open
model in the family of Large Language Models (LLMs) developed by LG AI
Research. Among different model sizes, we publicly release the 7.8B
instruction-tuned model to promote open research and innovations. Through
extensive evaluations across a wide range of public and in-house benchmarks,
EXAONE 3.0 demonstrates highly competitive real-world performance with
instruction-following capability against other state-of-the-art open models of
similar size. Our comparative analysis shows that EXAONE 3.0 excels
particularly in Korean, while achieving compelling performance across general
tasks and complex reasoning. With its strong real-world effectiveness and
bilingual proficiency, we hope that EXAONE keeps contributing to advancements
in Expert AI. Our EXAONE 3.0 instruction-tuned model is available at
https://huggingface.co/LGAI-EXAONE/EXAONE-3.0-7.8B-InstructSummary
AI-Generated Summary