Языковая модель EXAONE 3.0 7.8B, оптимизированная под инструкции.
EXAONE 3.0 7.8B Instruction Tuned Language Model
August 7, 2024
Авторы: LG AI Research, Soyoung An, Kyunghoon Bae, Eunbi Choi, Stanley Jungkyu Choi, Yemuk Choi, Seokhee Hong, Yeonjung Hong, Junwon Hwang, Hyojin Jeon, Gerrard Jeongwon Jo, Hyunjik Jo, Jiyeon Jung, Yountae Jung, Euisoon Kim, Hyosang Kim, Joonkee Kim, Seonghwan Kim, Soyeon Kim, Sunkyoung Kim, Yireun Kim, Youchul Kim, Edward Hwayoung Lee, Haeju Lee, Honglak Lee, Jinsik Lee, Kyungmin Lee, Moontae Lee, Seungjun Lee, Woohyung Lim, Sangha Park, Sooyoun Park, Yongmin Park, Boseong Seo, Sihoon Yang, Heuiyeen Yeen, Kyungjae Yoo, Hyeongu Yun
cs.AI
Аннотация
Мы представляем модель EXAONE 3.0, настроенную на инструкции, первую открытую модель в семействе больших языковых моделей (LLM), разработанную исследовательским отделом LG AI. Среди различных размеров моделей мы публично выпускаем модель, настроенную на инструкции, объемом 7,8 миллиарда, чтобы содействовать открытым исследованиям и инновациям. Через обширные оценки на широком спектре общедоступных и внутренних бенчмарков, EXAONE 3.0 демонстрирует высокую конкурентоспособность в реальных условиях с возможностью следовать инструкциям по сравнению с другими передовыми открытыми моделями схожего размера. Наше сравнительное аналитическое исследование показывает, что EXAONE 3.0 выделяется особенно в корейском языке, обеспечивая убедительную производительность в общих задачах и сложном рассуждении. Благодаря своей сильной эффективности в реальном мире и двуязычной компетентности, мы надеемся, что EXAONE продолжит способствовать прогрессу в области экспертных исследований в области искусственного интеллекта. Наша модель EXAONE 3.0, настроенная на инструкции, доступна по адресу https://huggingface.co/LGAI-EXAONE/EXAONE-3.0-7.8B-Instruct.
English
We introduce EXAONE 3.0 instruction-tuned language model, the first open
model in the family of Large Language Models (LLMs) developed by LG AI
Research. Among different model sizes, we publicly release the 7.8B
instruction-tuned model to promote open research and innovations. Through
extensive evaluations across a wide range of public and in-house benchmarks,
EXAONE 3.0 demonstrates highly competitive real-world performance with
instruction-following capability against other state-of-the-art open models of
similar size. Our comparative analysis shows that EXAONE 3.0 excels
particularly in Korean, while achieving compelling performance across general
tasks and complex reasoning. With its strong real-world effectiveness and
bilingual proficiency, we hope that EXAONE keeps contributing to advancements
in Expert AI. Our EXAONE 3.0 instruction-tuned model is available at
https://huggingface.co/LGAI-EXAONE/EXAONE-3.0-7.8B-InstructSummary
AI-Generated Summary