Un’intelligenza artificiale che funziona sullo smartphone, senza connessione Internet, senza inviare dati a nessun server, senza abbonamento mensile. Sembra il sogno di chiunque abbia a cuore la privacy, e oggi grazie a Qwen 3.5-2B di Alibaba è una realtà. Ma tra il dire e il fare c’è di mezzo il mare, come si suole dire.
Qwen 3.5 funziona sul telefono senza Internet, ma non è ancora utile
Mentre l’industria tech continua a gareggiare su chi ha il modello cloud più mastodontico e chi ha speso più miliardi in data center, Alibaba rilascia la serie Qwen 3.5, con modelli che vanno da 0,8 a 9 miliardi di parametri, dimensioni minuscole per gli standard dell’AI, ma ottimizzati al punto da colmare il divario con alcuni modelli proprietari.
I Qwen 3.5 sono multimodali, elaborano testo e immagini contemporaneamente. In certi benchmark, le varianti più grandi hanno persino superato modelli più piccoli di OpenAI e Google, come GPT-5 Nano e Gemini 2.5 Flash-Lite. Non siamo ai livelli dei modelli di frontiera, ma per modelli che girano su hardware consumer il risultato è notevole.
Come funziona Qwen 3.5-2B, il modello AI da 2 miliardi di parametri
La variante più interessante è il modello da 2 miliardi di parametri. Mentre il Qwen 3.5-9B richiede almeno 5 GB di VRAM per girare su un PC, il modello 2B è così compresso che funziona direttamente sullo smartphone, Android o iPhone. Le persone lo stanno già scaricando e facendo girare in locale sui propri telefoni.
Alibaba’s Qwen 3.5 is now running fully on-device on the iPhone 17 Pro.
It outperforms models 4x its size, delivers strong visual understanding, and lets you switch reasoning on or off.
This demo uses the 2B 6-bit version, optimized with MLX for Apple Silicon. pic.twitter.com/IXfulitef4
— Hugging Models (@HuggingModels) March 3, 2026
Meglio non aspettarsi miracoli…
Ecco dove l’entusiasmo deve fare i conti con la realtà. Qwen 3.5-2B è un modello linguistico minuscolo con capacità molto limitate. I modelli AI di frontiera hanno centinaia di miliardi, a volte migliaia di miliardi, di parametri. Due miliardi sono sufficienti per conversazioni semplici, risposte basilari e poco altro.
Per ragionamenti complessi, coding, scrittura elaborata, siamo ancora lontani. L’installazione tramite app non è immediata e richiede un minimo di competenza tecnica. E far girare un modello AI sul processore del telefono divora la batteria a una velocità impressionante, non
è l’ideale per l’uso quotidiano.
Per ora, esperimenti come questo sono più adatti agli appassionati che vogliono provare per il gusto di farlo che agli utenti comuni. Ma sicuramente modelli AI capaci di girare su hardware mobile diventeranno sempre più potenti e utili. Oggi è una curiosità, domani, forse non troppo lontano, potrebbe essere la norma.