ChatPaper.aiChatPaper

Modelo de Linguagem Ajustado para Instruções EXAONE 3.0 7.8B

EXAONE 3.0 7.8B Instruction Tuned Language Model

August 7, 2024
Autores: LG AI Research, Soyoung An, Kyunghoon Bae, Eunbi Choi, Stanley Jungkyu Choi, Yemuk Choi, Seokhee Hong, Yeonjung Hong, Junwon Hwang, Hyojin Jeon, Gerrard Jeongwon Jo, Hyunjik Jo, Jiyeon Jung, Yountae Jung, Euisoon Kim, Hyosang Kim, Joonkee Kim, Seonghwan Kim, Soyeon Kim, Sunkyoung Kim, Yireun Kim, Youchul Kim, Edward Hwayoung Lee, Haeju Lee, Honglak Lee, Jinsik Lee, Kyungmin Lee, Moontae Lee, Seungjun Lee, Woohyung Lim, Sangha Park, Sooyoun Park, Yongmin Park, Boseong Seo, Sihoon Yang, Heuiyeen Yeen, Kyungjae Yoo, Hyeongu Yun
cs.AI

Resumo

Apresentamos o modelo de linguagem EXAONE 3.0 ajustado para instruções, o primeiro modelo aberto da família de Modelos de Linguagem Grandes (LLMs) desenvolvido pela LG AI Research. Entre diferentes tamanhos de modelo, lançamos publicamente o modelo ajustado para instruções de 7,8 bilhões para promover pesquisas e inovações abertas. Através de extensas avaliações em uma ampla gama de benchmarks públicos e internos, o EXAONE 3.0 demonstra um desempenho altamente competitivo no mundo real com capacidade de seguir instruções em comparação com outros modelos abertos de ponta de tamanho semelhante. Nossa análise comparativa mostra que o EXAONE 3.0 se destaca especialmente em coreano, ao mesmo tempo que alcança um desempenho convincente em tarefas gerais e raciocínio complexo. Com sua forte eficácia no mundo real e proficiência bilíngue, esperamos que o EXAONE continue contribuindo para avanços em IA especializada. Nosso modelo EXAONE 3.0 ajustado para instruções está disponível em https://huggingface.co/LGAI-EXAONE/EXAONE-3.0-7.8B-Instruct.
English
We introduce EXAONE 3.0 instruction-tuned language model, the first open model in the family of Large Language Models (LLMs) developed by LG AI Research. Among different model sizes, we publicly release the 7.8B instruction-tuned model to promote open research and innovations. Through extensive evaluations across a wide range of public and in-house benchmarks, EXAONE 3.0 demonstrates highly competitive real-world performance with instruction-following capability against other state-of-the-art open models of similar size. Our comparative analysis shows that EXAONE 3.0 excels particularly in Korean, while achieving compelling performance across general tasks and complex reasoning. With its strong real-world effectiveness and bilingual proficiency, we hope that EXAONE keeps contributing to advancements in Expert AI. Our EXAONE 3.0 instruction-tuned model is available at https://huggingface.co/LGAI-EXAONE/EXAONE-3.0-7.8B-Instruct

Summary

AI-Generated Summary

PDF363November 28, 2024