Phi-4-Mini Technischer Bericht: Kompakte, aber leistungsstarke multimodale Sprachmodelle durch Mixture-of-LoRAs
Phi-4-Mini Technical Report: Compact yet Powerful Multimodal Language Models via Mixture-of-LoRAs
March 3, 2025
Autoren: Abdelrahman Abouelenin, Atabak Ashfaq, Adam Atkinson, Hany Awadalla, Nguyen Bach, Jianmin Bao, Alon Benhaim, Martin Cai, Vishrav Chaudhary, Congcong Chen, Dong Chen, Dongdong Chen, Junkun Chen, Weizhu Chen, Yen-Chun Chen, Yi-ling Chen, Qi Dai, Xiyang Dai, Ruchao Fan, Mei Gao, Min Gao, Amit Garg, Abhishek Goswami, Junheng Hao, Amr Hendy, Yuxuan Hu, Xin Jin, Mahmoud Khademi, Dongwoo Kim, Young Jin Kim, Gina Lee, Jinyu Li, Yunsheng Li, Chen Liang, Xihui Lin, Zeqi Lin, Mengchen Liu, Yang Liu, Gilsinia Lopez, Chong Luo, Piyush Madan, Vadim Mazalov, Ali Mousavi, Anh Nguyen, Jing Pan, Daniel Perez-Becker, Jacob Platin, Thomas Portet, Kai Qiu, Bo Ren, Liliang Ren, Sambuddha Roy, Ning Shang, Yelong Shen, Saksham Singhal, Subhojit Som, Xia Song, Tetyana Sych, Praneetha Vaddamanu, Shuohang Wang, Yiming Wang, Zhenghao Wang, Haibin Wu, Haoran Xu, Weijian Xu, Yifan Yang, Ziyi Yang, Donghan Yu, Ishmam Zabir, Jianwen Zhang, Li Lyna Zhang, Yunan Zhang, Xiren Zhou
cs.AI
Zusammenfassung
Wir stellen Phi-4-Mini und Phi-4-Multimodal vor, kompakte, aber äußerst leistungsfähige Sprach- und Multimodellmodelle. Phi-4-Mini ist ein Sprachmodell mit 3,8 Milliarden Parametern, das auf hochwertigen Web- und synthetischen Daten trainiert wurde und aktuelle Open-Source-Modelle ähnlicher Größe deutlich übertrifft sowie die Leistung von Modellen, die doppelt so groß sind, bei mathematischen und Programmieraufgaben, die komplexes Denken erfordern, erreicht. Dieser Erfolg wird durch ein sorgfältig kuratiertes synthetisches Datenrezept ermöglicht, das hochwertige mathematische und Programmierdatensätze betont. Im Vergleich zu seinem Vorgänger, Phi-3.5-Mini, verfügt Phi-4-Mini über einen erweiterten Wortschatz von 200.000 Tokens, um multilinguale Anwendungen besser zu unterstützen, sowie über Group-Query-Attention für eine effizientere Erzeugung langer Sequenzen. Phi-4-Multimodal ist ein multimodales Modell, das Text-, Bild- und Sprach-/Audio-Eingabemodalitäten in einem einzigen Modell integriert. Sein neuartiger Ansatz zur Modalerweiterung nutzt LoRA-Adapter und modalitätsspezifische Router, um mehrere Inferenzmodi zu ermöglichen, die verschiedene Modalitäten ohne Interferenz kombinieren. Beispielsweise belegt es derzeit den ersten Platz im OpenASR-Leaderboard, obwohl die LoRA-Komponente der Sprach-/Audio-Modalität nur 460 Millionen Parameter hat. Phi-4-Multimodal unterstützt Szenarien mit (Bild + Sprache), (Bild + Sprache) und (Sprache/Audio) Eingaben und übertrifft größere Vision-Sprache- und Sprach-Sprache-Modelle bei einer Vielzahl von Aufgaben. Zusätzlich experimentieren wir damit, Phi-4-Mini weiter zu trainieren, um seine Denkfähigkeiten zu verbessern. Trotz seiner kompakten Größe von 3,8 Milliarden Parametern erreicht diese experimentelle Version eine Denkleistung, die mit deutlich größeren Modellen wie DeepSeek-R1-Distill-Qwen-7B und DeepSeek-R1-Distill-Llama-8B vergleichbar ist oder diese sogar übertrifft.
English
We introduce Phi-4-Mini and Phi-4-Multimodal, compact yet highly capable
language and multimodal models. Phi-4-Mini is a 3.8-billion-parameter language
model trained on high-quality web and synthetic data, significantly
outperforming recent open-source models of similar size and matching the
performance of models twice its size on math and coding tasks requiring complex
reasoning. This achievement is driven by a carefully curated synthetic data
recipe emphasizing high-quality math and coding datasets. Compared to its
predecessor, Phi-3.5-Mini, Phi-4-Mini features an expanded vocabulary size of
200K tokens to better support multilingual applications, as well as group query
attention for more efficient long-sequence generation. Phi-4-Multimodal is a
multimodal model that integrates text, vision, and speech/audio input
modalities into a single model. Its novel modality extension approach leverages
LoRA adapters and modality-specific routers to allow multiple inference modes
combining various modalities without interference. For example, it now ranks
first in the OpenASR leaderboard to date, although the LoRA component of the
speech/audio modality has just 460 million parameters. Phi-4-Multimodal
supports scenarios involving (vision + language), (vision + speech), and
(speech/audio) inputs, outperforming larger vision-language and speech-language
models on a wide range of tasks. Additionally, we experiment to further train
Phi-4-Mini to enhance its reasoning capabilities. Despite its compact
3.8-billion-parameter size, this experimental version achieves reasoning
performance on par with or surpassing significantly larger models, including
DeepSeek-R1-Distill-Qwen-7B and DeepSeek-R1-Distill-Llama-8B.Summary
AI-Generated Summary