Microsoft ha aggiornato la sua famiglia di SLM (Small Language Model) open source che include già Phi-4, Phi-4-mini e Phi-4-multimodal. I nuovi membri sono Phi-4-reasoning, Phi-4-reasoning-plus e Phi-4-mini-reasoning. Come si deduce dal nome offrono capacità di ragionamento.
Dettagli e prestazioni dei nuovi modelli
Microsoft ha già dimostrato che le “dimensioni non contano”. Non è necessario incrementare il numero di parametri, spendere più soldi e impiegare più tempo per l’addestramento dei modelli di intelligenza artificiale. Il lancio dei nuovi Phi-4 con capacità di ragionamento conferma ulteriormente che si possono ottenere prestazioni elevate anche con gli Small Language Model (SLM).
Sfruttando le tecniche note come distillazione e apprendimento per rinforzo, insieme a dati di alta qualità, i nuovi modelli possono completare attività complesse in maniera efficiente, superando anche i Large Language Model (LLM) più noti. Phi-4-reasoning e Phi-4-reasoning-plus hanno solo 14 miliardi di parametri, ma possono generare risposte dettagliate attraverso una catena di ragionamento con prestazioni superiori ai modelli DeepSeek R1 (70 e 671 miliardi di parametri), o1-mini e o3-mini.
Phi-4-mini-reasoning è addestrato con i dati generati dal modello DeepSeek R1 (distillazione) ed è ottimizzato per risolvere problemi matematici. Gli sviluppatori possono accedere ai tre nuovi modelli tramite Azure AI Foundry e Hugging Face. Ci sono alcune limitazioni: supportano principalmente testo in inglese, le risposte sono più lente rispetto agli LLM e la context window è ampia solo 32k token.
Grazie alle dimensioni ridotte possono essere eseguiti direttamente sul dispositivo, come Phi Silica. Phi-4-reasoning e Phi-4-mini-reasoning saranno presto disponibili per i Copilot+ PC con Windows 11 24H2.