Технический отчет Phi-3: Высококвалифицированная языковая модель локально на вашем телефонеPhi-3 Technical Report: A Highly Capable Language Model Locally on Your
Phone
Мы представляем phi-3-mini, языковую модель с 3,8 миллиарда параметров, обученную на 3,3 триллиона токенов, общая производительность которой, измеренная как академическими бенчмарками, так и внутренними тестами, не уступает моделям, таким как Mixtral 8x7B и GPT-3.5 (например, phi-3-mini достигает 69% на MMLU и 8,38 на MT-bench), несмотря на то, что достаточно компактна для установки на телефон. Инновация заключается полностью в нашем наборе данных для обучения, увеличенной версии того, что использовалось для phi-2, состоящего из тщательно отфильтрованных веб-данных и синтетических данных. Модель также дополнительно настроена на устойчивость, безопасность и формат чата. Мы также предоставляем некоторые начальные результаты масштабирования параметров с 7B и 14B моделями, обученными на 4,8T токенов, названными phi-3-small и phi-3-medium, обе значительно более производительные, чем phi-3-mini (например, соответственно 75% и 78% на MMLU, и 8,7 и 8,9 на MT-bench).