Quando OpenAI ha sborsato 6,5 miliardi di dollari per acquisire la startup di Jony Ive a maggio, Sam Altman aveva dipinto un futuro luminoso fatto di “una nuova generazione di computer alimentati dall’intelligenza artificiale“.
Il leggendario designer di Apple avrebbe dovuto portare la sua magia estetica nel mondo dell’AI, creando dispositivi fuori dal comune. Secondo Bloomberg, i primi frutti di questa collaborazione sarebbero arrivati nel 2026. Peccato che il Financial Times ora racconti una storia diversa… un gadget senza schermo che non sa quando parlare e quando chiudere la bocca.
Perché il gadget AI di OpenAI e Jony Ive potrebbe non vedere mai la luce
Il dispositivo dovrebbe essere un gioiellino palmare senza schermo, capace di captare segnali audio e visivi dall’ambiente circostante e rispondere alle richieste degli utenti. L’idea sulla carta suona affascinante, un assistente invisibile che segue ovunque, pronto a intervenire quando serve. Il problema è che “quando serve” è esattamente il punto critico su cui il team è inciampato.
Invece di aspettare un comando vocale specifico come “Hey Siri” o “Ok Google”, il dispositivo adotterebbe un approccio always-on, sempre in ascolto, sempre vigile. Ma una fonte ha rivelato al Financial Times che il team fatica disperatamente a insegnare a questo aggeggio quando è il momento di parlare e, ancora più importante, quando è il caso di tacere.
Oltre a questo problema, ci sono questioni irrisolte sulla personalità del dispositivo. Un dettaglio apparentemente secondario che in realtà è cruciale. Nessuno vuole un assistente AI che suona come un robot burocratico né uno che cerca di essere il migliore amico con battute imbarazzanti. Trovare il tono giusto tra utile e invadente, tra presente e opprimente, è un esercizio di equilibrismo che sta dando filo da torcere ai designer.
La questione della privacy
La gestione della privacy è un altro nodo gordiano. Un dispositivo sempre acceso che ascolta e osserva continuamente l’ambiente solleva domande che vanno ben oltre la tecnologia. Dove finiscono i dati? Chi può accedervi? Come si evita che diventi uno strumento di sorveglianza travestito da assistente personale? Questioni che richiedono risposte convincenti prima che qualcuno sia disposto a portarselo dietro tutto il giorno.
L’infrastruttura che non regge il peso delle ambizioni
C’è poi il problema dell’infrastruttura informatica necessaria per far funzionare tutto questo. Un dispositivo senza schermo che deve processare segnali audio e visivi in tempo reale, interpretare il contesto, decidere quando intervenire e rispondere in modo pertinente richiede una potenza di calcolo non banale. E probabilmente una connessione costante al cloud, il che riporta al problema della privacy e aggiunge quello della dipendenza dalla rete.
Tutti questi ostacoli potrebbero ritardare il lancio previsto per il 2026. O forse è più onesto dire che potrebbero impedirlo del tutto, almeno nella forma attualmente immaginata. Perché c’è una differenza abissale tra l’idea visionaria di un assistente AI perfettamente integrato nella vita quotidiana e la realtà di un gadget che non riesce nemmeno a capire quando smettere di parlare.
La collaborazione tra OpenAI e Jony Ive sembrava il matrimonio perfetto tra innovazione tecnologica e design raffinato. Ma anche i matrimoni più promettenti possono inciampare sui dettagli pratici, e in questo caso i dettagli sono tutt’altro che trascurabili… Insegnare a un’intelligenza artificiale le basi della conversazione umana, incluso il sacro principio di sapere quando chiudere la bocca.