La serata inaugurale del Google I/O è stata ricca di annunci, la maggior parte dei quali, non a caso, incentrati sull’intelligenza artificiale. Dalla nuova versione del generatore di video Veo 3, alla Modalità Agente di Gemini. È stata anche l’occasione per il gigante di Mountain View di svelare nuovi modelli AI, come Gemma 3n.
Gemma 3n: il mini-modello AI di Google, piccolo e veloce per portare l’intelligenza artificiale ovunque
È una variante di Gemma, un modello di linguaggio piccole dimensioni, presentato da Google lo scorso anno. La grande novità è la multimodalità: a differenza dei suoi predecessori, che comprendevano solo il testo, Gemma 3n può analizzare contemporaneamente testo, immagini, audio e persino video.
Frutto del lavoro della divisione DeepMind di Google, Gemma 3n è un nuovo mini-modello AI progettato per essere ultraleggero ed efficiente, senza sacrificare potenza e capacità. Alla base c’è una nuova tecnologia chiamata Per-Layer Embeddings (PLE), un sistema di compressione intelligente che permette di ridurre drasticamente la memoria necessaria per far funzionare il modello localmente, cioè direttamente su un dispositivo (senza cloud).
In pratica, anche se Gemma 3n ha un numero di parametri piuttosto elevato (5 e 8 miliardi nelle due versioni), il suo consumo di memoria è equivalente a modelli molto più piccoli, da 2 a 4 miliardi di parametri. Questo significa che può girare su dispositivi con appena 2 o 3 GB di RAM, rendendolo ideale per smartphone, tablet, occhiali smart e altri dispositivi portatili.
Inoltre, Gemma 3n è 1,5 volte più veloce nel rispondere rispetto alla versione precedente (Gemma 3), è capace di adattarsi in tempo reale, creando “sottomodelli” ottimizzati per compiti specifici (ad esempio traduzione, scrittura, analisi dati).
Modelli in grado di funzionare localmente
Perché costruire modelli più piccoli? La risposta è semplice: i modelli linguistici di grandi dimensioni, come GPT-4 o Claude Sonnet, sono incredibilmente dispendiosi dal punto di vista energetico, e necessitano di enormi centri dati per funzionare correttamente.
Gli SLM, invece, possono essere eseguiti su un dispositivo locale e i vantaggi sono tanti. Niente più dati che fanno il giro del mondo, tutto resta nel proprio telefono o computer. E la ciliegina sulla torta, funzionano anche senza connessione Internet. Ciò potrebbe aprire la strada a prodotti elettronici che integrano l’intelligenza artificiale direttamente in locale, un settore che sta iniziando a prendere piede, ad esempio con alcune funzionalità AI di Apple.
Anche se questi modelli non sono in grado di eseguire compiti molto complessi, il campo delle possibilità rimane vasto, soprattutto per l’uso da parte dei consumatori. Ecco perché anche i giganti tech stanno sviluppando questo tipo di tecnologia. Microsoft starebbe lavorando per integrare il proprio SLM, Phi-4, direttamente nel browser Edge.