Rapporto Tecnico Phi-4-Mini: Modelli Linguistici Multimodali Compatti ma Potenti tramite Mixture-of-LoRAsPhi-4-Mini Technical Report: Compact yet Powerful Multimodal Language
Models via Mixture-of-LoRAs
Presentiamo Phi-4-Mini e Phi-4-Multimodal, modelli linguistici e multimodali compatti ma altamente performanti. Phi-4-Mini è un modello linguistico da 3,8 miliardi di parametri addestrato su dati web di alta qualità e dati sintetici, che supera significativamente i recenti modelli open-source di dimensioni simili eguagliando le prestazioni di modelli di dimensioni doppie in compiti di matematica e codifica che richiedono ragionamenti complessi. Questo risultato è ottenuto grazie a una ricetta di dati sintetici accuratamente curata, che enfatizza dataset di alta qualità per matematica e codifica. Rispetto al suo predecessore, Phi-3.5-Mini, Phi-4-Mini presenta una dimensione del vocabolario ampliata a 200K token per supportare meglio applicazioni multilingue, oltre a un'attenzione a query di gruppo per una generazione più efficiente di sequenze lunghe. Phi-4-Multimodal è un modello multimodale che integra modalità di input testuali, visive e vocali/audio in un unico modello. Il suo innovativo approccio di estensione modale sfrutta adattatori LoRA e router specifici per modalità, consentendo molteplici modalità di inferenza che combinano varie modalità senza interferenze. Ad esempio, attualmente si colloca al primo posto nella classifica OpenASR, nonostante il componente LoRA della modalità vocale/audio abbia solo 460 milioni di parametri. Phi-4-Multimodal supporta scenari che coinvolgono input (visione + linguaggio), (visione + voce) e (voce/audio), superando modelli visione-linguaggio e voce-linguaggio più grandi in un'ampia gamma di compiti. Inoltre, sperimentiamo un ulteriore addestramento di Phi-4-Mini per potenziare le sue capacità di ragionamento. Nonostante le sue dimensioni compatte di 3,8 miliardi di parametri, questa versione sperimentale raggiunge prestazioni di ragionamento pari o superiori a modelli significativamente più grandi, tra cui DeepSeek-R1-Distill-Qwen-7B e DeepSeek-R1-Distill-Llama-8B.