Phi-4-Mini Technisch Rapport: Compacte maar Krachtige Multimodale Taalmodellen via Mixture-of-LoRAs
Phi-4-Mini Technical Report: Compact yet Powerful Multimodal Language Models via Mixture-of-LoRAs
March 3, 2025
Auteurs: Abdelrahman Abouelenin, Atabak Ashfaq, Adam Atkinson, Hany Awadalla, Nguyen Bach, Jianmin Bao, Alon Benhaim, Martin Cai, Vishrav Chaudhary, Congcong Chen, Dong Chen, Dongdong Chen, Junkun Chen, Weizhu Chen, Yen-Chun Chen, Yi-ling Chen, Qi Dai, Xiyang Dai, Ruchao Fan, Mei Gao, Min Gao, Amit Garg, Abhishek Goswami, Junheng Hao, Amr Hendy, Yuxuan Hu, Xin Jin, Mahmoud Khademi, Dongwoo Kim, Young Jin Kim, Gina Lee, Jinyu Li, Yunsheng Li, Chen Liang, Xihui Lin, Zeqi Lin, Mengchen Liu, Yang Liu, Gilsinia Lopez, Chong Luo, Piyush Madan, Vadim Mazalov, Ali Mousavi, Anh Nguyen, Jing Pan, Daniel Perez-Becker, Jacob Platin, Thomas Portet, Kai Qiu, Bo Ren, Liliang Ren, Sambuddha Roy, Ning Shang, Yelong Shen, Saksham Singhal, Subhojit Som, Xia Song, Tetyana Sych, Praneetha Vaddamanu, Shuohang Wang, Yiming Wang, Zhenghao Wang, Haibin Wu, Haoran Xu, Weijian Xu, Yifan Yang, Ziyi Yang, Donghan Yu, Ishmam Zabir, Jianwen Zhang, Li Lyna Zhang, Yunan Zhang, Xiren Zhou
cs.AI
Samenvatting
We introduceren Phi-4-Mini en Phi-4-Multimodal, compacte maar zeer krachtige taal- en multimodale modellen. Phi-4-Mini is een taalmodel met 3,8 miljard parameters, getraind op hoogwaardige web- en synthetische data, dat recente open-source modellen van vergelijkbare grootte aanzienlijk overtreft en de prestaties evenaart van modellen die twee keer zo groot zijn op wiskundige en programmeertaken die complex redeneren vereisen. Deze prestatie wordt mogelijk gemaakt door een zorgvuldig samengesteld synthetisch datarecept dat de nadruk legt op hoogwaardige wiskundige en programmeerdatasets. Vergeleken met zijn voorganger, Phi-3.5-Mini, beschikt Phi-4-Mini over een uitgebreide vocabulairegrootte van 200K tokens om meertalige toepassingen beter te ondersteunen, evenals group query attention voor efficiëntere generatie van lange sequenties. Phi-4-Multimodal is een multimodaal model dat tekst, beeld en spraak/audio-invoermodaliteiten integreert in één model. De nieuwe modaliteitsuitbreidingsaanpak maakt gebruik van LoRA-adapters en modaliteitsspecifieke routers om meerdere inferentiemodi te combineren zonder interferentie. Het model staat momenteel bovenaan de OpenASR-leaderboard, hoewel de LoRA-component van de spraak/audio-modaliteit slechts 460 miljoen parameters heeft. Phi-4-Multimodal ondersteunt scenario's met (beeld + taal), (beeld + spraak) en (spraak/audio) invoer, en presteert beter dan grotere visie-taal- en spraak-taalmodellen op een breed scala aan taken. Daarnaast experimenteren we met het verder trainen van Phi-4-Mini om zijn redeneervermogen te verbeteren. Ondanks zijn compacte omvang van 3,8 miljard parameters, bereikt deze experimentele versie redeneerprestaties die gelijk zijn aan of zelfs beter zijn dan aanzienlijk grotere modellen, waaronder DeepSeek-R1-Distill-Qwen-7B en DeepSeek-R1-Distill-Llama-8B.
English
We introduce Phi-4-Mini and Phi-4-Multimodal, compact yet highly capable
language and multimodal models. Phi-4-Mini is a 3.8-billion-parameter language
model trained on high-quality web and synthetic data, significantly
outperforming recent open-source models of similar size and matching the
performance of models twice its size on math and coding tasks requiring complex
reasoning. This achievement is driven by a carefully curated synthetic data
recipe emphasizing high-quality math and coding datasets. Compared to its
predecessor, Phi-3.5-Mini, Phi-4-Mini features an expanded vocabulary size of
200K tokens to better support multilingual applications, as well as group query
attention for more efficient long-sequence generation. Phi-4-Multimodal is a
multimodal model that integrates text, vision, and speech/audio input
modalities into a single model. Its novel modality extension approach leverages
LoRA adapters and modality-specific routers to allow multiple inference modes
combining various modalities without interference. For example, it now ranks
first in the OpenASR leaderboard to date, although the LoRA component of the
speech/audio modality has just 460 million parameters. Phi-4-Multimodal
supports scenarios involving (vision + language), (vision + speech), and
(speech/audio) inputs, outperforming larger vision-language and speech-language
models on a wide range of tasks. Additionally, we experiment to further train
Phi-4-Mini to enhance its reasoning capabilities. Despite its compact
3.8-billion-parameter size, this experimental version achieves reasoning
performance on par with or surpassing significantly larger models, including
DeepSeek-R1-Distill-Qwen-7B and DeepSeek-R1-Distill-Llama-8B.Summary
AI-Generated Summary