Mustafa Suleyman di Microsoft, ha affermato senza giri di parole che l’azienda potrebbe gettare la spugna di fronte a un’intelligenza artificiale incontrollabile. In un mondo tech dove ogni annuncio è un tripudio di ottimismo e promesse rivoluzionarie, sentire qualcuno dire “se le cose vanno male ci fermiamo” è così insolito che quasi non si sa se prenderlo sul serio o se è solo una mossa di PR ben orchestrata.
Microsoft: pronta a fermare l’AI se diventa pericolosa (ma ci crediamo?)
Perché diciamolo chiaramente, Microsoft ha già investito decine di miliardi di dollari nell’AI. Ha una partnership strategica con OpenAI che vale miliardi. Copilot è integrato in praticamente ogni prodotto.
La posizione di Microsoft stride parecchio nel panorama della Silicon Valley. Mentre tutti i concorrenti accelerano freneticamente per raggiungere la “sacrosanta” intelligenza artificiale generale, quell’AGI che dovrebbe essere intelligente come un essere umano o più, Microsoft si presenta come lo studente modello che sa quando è il momento di fermarsi. Suleyman insiste, non svilupperanno un sistema che potrebbe sfuggire al loro controllo. L’obiettivo sarebbe creare una “superintelligenza umanistica“, con Copilot come prima incarnazione, uno strumento al servizio dell’uomo e non il suo sostituto.
Tutto molto nobile, apparentemente. Il problema è che Microsoft è anche uno dei maggiori finanziatori di questa tecnologia. Ha costruito infrastrutture enormi per far girare modelli sempre più potenti. Ha investito miliardi in OpenAI, l’azienda che sta spingendo più di chiunque altro verso l’AGI.
È un discorso a due voci che solleva domande. Microsoft ha recentemente rinegoziato il contratto con OpenAI per poter sviluppare i propri modelli AI in completa autonomia. Non è più solo un investitore passivo, vuole giocare da protagonista. Ma allo stesso tempo si presenta come la voce moderata, quella che non insegue chimere pericolose ma si concentra su strumenti pratici.
Cosa sta succedendo davvero? Microsoft vuole le mani libere per sviluppare la propria AI senza dipendere totalmente da OpenAI, ma vuole anche posizionarsi pubblicamente come l’azienda responsabile che sa quando fermarsi. È una strategia sensata.
Linea rossa etica o comunicazione astuta?
La vera domanda è: Microsoft è davvero pronta a staccare la spina? O stiamo assistendo a una mossa calcolata per apparire come il leader responsabile del settore mentre continua a correre verso lo stesso traguardo di tutti gli altri?
Del resto, quando mai un’azienda tech ha volontariamente fermato lo sviluppo di una tecnologia potenzialmente redditizia perché “troppo pericolosa“? Le big tech hanno una storia ben documentata di spingere i limiti, chiedere perdono invece di permesso, e preoccuparsi delle conseguenze solo quando sono costrette da regolatori o scandali pubblici. Facebook non ha fermato gli algoritmi che creavano dipendenza e polarizzazione finché non c’è stato uno scandalo. Google non ha rallentato la raccolta dati finché il GDPR non l’ha obbligata. Amabzon non ha smesso di sfruttare i lavoratori nei magazzini finché le proteste non sono diventate troppo rumorose.
E ora Microsoft vuole farci credere che fermerebbe volontariamente il suo programma di intelligenza artificiale, in cui ha investito decine di miliardi, se dovesse diventare “troppo pericoloso“? Chi decide cosa è troppo pericoloso? Quali sono i criteri? A che punto scatta l’interruttore di emergenza?
I numeri raccontano una storia diversa dalla retorica prudente. Microsoft ha investito miliardi in data center per far girare modelli AI. Ha integrato Copilot in Windows, Office, Edge, praticamente ovunque. Ha acquisito talenti, comprato startup, costruito infrastrutture. È il comportamento di un’azienda che ha deciso di dominare questo settore e sta mettendo sul tavolo tutte le risorse necessarie per farlo.
Per ora, godiamoci lo spettacolo di Microsoft che gioca sia il ruolo dell’innovatore aggressivo sia quello del guardiano responsabile. È un equilibrismo impressionante, anche se ci fa sospettare che alla fine, quando le cose si faranno difficili, scopriremo che le belle parole sulla responsabilità erano esattamente questo: belle parole.