ChatPaper.aiChatPaper

Modelo de Lenguaje Ajustado a Instrucciones EXAONE 3.0 7.8B

EXAONE 3.0 7.8B Instruction Tuned Language Model

August 7, 2024
Autores: LG AI Research, Soyoung An, Kyunghoon Bae, Eunbi Choi, Stanley Jungkyu Choi, Yemuk Choi, Seokhee Hong, Yeonjung Hong, Junwon Hwang, Hyojin Jeon, Gerrard Jeongwon Jo, Hyunjik Jo, Jiyeon Jung, Yountae Jung, Euisoon Kim, Hyosang Kim, Joonkee Kim, Seonghwan Kim, Soyeon Kim, Sunkyoung Kim, Yireun Kim, Youchul Kim, Edward Hwayoung Lee, Haeju Lee, Honglak Lee, Jinsik Lee, Kyungmin Lee, Moontae Lee, Seungjun Lee, Woohyung Lim, Sangha Park, Sooyoun Park, Yongmin Park, Boseong Seo, Sihoon Yang, Heuiyeen Yeen, Kyungjae Yoo, Hyeongu Yun
cs.AI

Resumen

Presentamos EXAONE 3.0, un modelo de lenguaje ajustado a instrucciones, el primer modelo abierto de la familia de Modelos de Lenguaje Grandes (LLMs) desarrollado por LG AI Research. Entre diferentes tamaños de modelos, lanzamos públicamente el modelo ajustado a instrucciones de 7.8 mil millones para fomentar la investigación abierta e innovaciones. A través de extensas evaluaciones en una amplia gama de benchmarks públicos y propios, EXAONE 3.0 demuestra un rendimiento altamente competitivo en el mundo real con capacidad de seguimiento de instrucciones frente a otros modelos abiertos de tamaño similar de última generación. Nuestro análisis comparativo muestra que EXAONE 3.0 destaca especialmente en coreano, al tiempo que logra un rendimiento convincente en tareas generales y razonamiento complejo. Con su sólida efectividad en el mundo real y competencia bilingüe, esperamos que EXAONE siga contribuyendo a los avances en la Inteligencia Artificial Expert. Nuestro modelo EXAONE 3.0 ajustado a instrucciones está disponible en https://huggingface.co/LGAI-EXAONE/EXAONE-3.0-7.8B-Instruct.
English
We introduce EXAONE 3.0 instruction-tuned language model, the first open model in the family of Large Language Models (LLMs) developed by LG AI Research. Among different model sizes, we publicly release the 7.8B instruction-tuned model to promote open research and innovations. Through extensive evaluations across a wide range of public and in-house benchmarks, EXAONE 3.0 demonstrates highly competitive real-world performance with instruction-following capability against other state-of-the-art open models of similar size. Our comparative analysis shows that EXAONE 3.0 excels particularly in Korean, while achieving compelling performance across general tasks and complex reasoning. With its strong real-world effectiveness and bilingual proficiency, we hope that EXAONE keeps contributing to advancements in Expert AI. Our EXAONE 3.0 instruction-tuned model is available at https://huggingface.co/LGAI-EXAONE/EXAONE-3.0-7.8B-Instruct

Summary

AI-Generated Summary

PDF363November 28, 2024