AI locale sul telefono: Qwen 3.5 funziona offline, ma ha dei limiti

AI locale sul telefono: Qwen 3.5 funziona offline, ma ha dei limiti

Qwen 3.5-2B di Alibaba è un modello AI multimodale che gira su smartphone senza Internet, ma le capacità sono ancora molto limitate.
AI locale sul telefono: Qwen 3.5 funziona offline, ma ha dei limiti
Qwen 3.5-2B di Alibaba è un modello AI multimodale che gira su smartphone senza Internet, ma le capacità sono ancora molto limitate.

Un’intelligenza artificiale che funziona sullo smartphone, senza connessione Internet, senza inviare dati a nessun server, senza abbonamento mensile. Sembra il sogno di chiunque abbia a cuore la privacy, e oggi grazie a Qwen 3.5-2B di Alibaba è una realtà. Ma tra il dire e il fare c’è di mezzo il mare, come si suole dire.

Qwen 3.5 funziona sul telefono senza Internet, ma non è ancora utile

Mentre l’industria tech continua a gareggiare su chi ha il modello cloud più mastodontico e chi ha speso più miliardi in data center, Alibaba rilascia la serie Qwen 3.5, con modelli che vanno da 0,8 a 9 miliardi di parametri, dimensioni minuscole per gli standard dell’AI, ma ottimizzati al punto da colmare il divario con alcuni modelli proprietari.

I Qwen 3.5 sono multimodali, elaborano testo e immagini contemporaneamente. In certi benchmark, le varianti più grandi hanno persino superato modelli più piccoli di OpenAI e Google, come GPT-5 Nano e Gemini 2.5 Flash-Lite. Non siamo ai livelli dei modelli di frontiera, ma per modelli che girano su hardware consumer il risultato è notevole.

Come funziona Qwen 3.5-2B, il modello AI da 2 miliardi di parametri

La variante più interessante è il modello da 2 miliardi di parametri. Mentre il Qwen 3.5-9B richiede almeno 5 GB di VRAM per girare su un PC, il modello 2B è così compresso che funziona direttamente sullo smartphone, Android o iPhone. Le persone lo stanno già scaricando e facendo girare in locale sui propri telefoni.

Meglio non aspettarsi miracoli…

Ecco dove l’entusiasmo deve fare i conti con la realtà. Qwen 3.5-2B è un modello linguistico minuscolo con capacità molto limitate. I modelli AI di frontiera hanno centinaia di miliardi, a volte migliaia di miliardi, di parametri. Due miliardi sono sufficienti per conversazioni semplici, risposte basilari e poco altro.

Per ragionamenti complessi, coding, scrittura elaborata, siamo ancora lontani. L’installazione tramite app non è immediata e richiede un minimo di competenza tecnica. E far girare un modello AI sul processore del telefono divora la batteria a una velocità impressionante, non
è l’ideale per l’uso quotidiano.

Per ora, esperimenti come questo sono più adatti agli appassionati che vogliono provare per il gusto di farlo che agli utenti comuni. Ma sicuramente modelli AI capaci di girare su hardware mobile diventeranno sempre più potenti e utili. Oggi è una curiosità, domani, forse non troppo lontano, potrebbe essere la norma.

Fonte: Qwen
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
4 mar 2026
Link copiato negli appunti