Nel giorno in cui il mondo ha celebrato la privacy, Microsoft ha pensato bene di ricordare ai propri utenti una cosa fondamentale: i dati sono completamente sotto il loro controllo. Parola di Microsoft. La stessa Microsoft che ha passato gli ultimi anni a collezionare polemiche sulla telemetria di Windows, sulle istantanee invasive della funzione Recall e su una serie di pratiche di raccolta dati controverse.
Microsoft ribadisce il suo impegno per la privacy degli utenti
Tutta la filosofia aziendale ruota attorno ai sacri “Principi sulla Privacy di Microsoft“. Un documento che, a sentir loro, è praticamente la Magna Carta della protezione dati. Questi principi stabiliscono che gli utenti hanno il controllo assoluto delle proprie informazioni: possono spostarle, accedervi, cancellarle quando vogliono. Microsoft userà i dati per mostrare pubblicità personalizzata solo se si dà il consenso. Tutto molto bello, ma poi quando si passa dalla teoria alla pratica, le cose sono leggermente diverse…
Microsoft sostiene di difendere la privacy degli utenti anche di fronte alle richieste di accesso ai dati da parte dei governi. Encomiabile, peccato che sia falso. Recentemente, Microsoft ha dato le chiavi di crittografia BitLocker all’FBI per permettere l’accesso ai dati su laptop sospettati di essere coinvolti in alcune frodi. A questo punto il dubbio è lecito, quante altre volte è già successo senza che nessuno lo sapesse?
L’era dell’intelligenza artificiale e le promesse su Copilot
Con l’arrivo dell’intelligenza artificiale e l’integrazione di Copilot praticamente ovunque, l’azienda ha sentito il bisogno di rassicurare gli utenti sul fronte privacy. E lo fa con una lista di promesse che suonano quasi troppo belle per essere vere.
Con Copilot per Microsoft 365, la privacy è al sicuro, dicono. I prompt, le risposte che si ricevono e i dati che si elaborano non vengono usati per addestrare i modelli linguistici di base. I dati aziendali rimangono protetti dentro l’ambiente Microsoft 365. L’assistente AI è regolato dagli stessi controlli di identità, permessi e standard di conformità che già proteggono il resto dell’ecosistema Microsoft.
Eppure molte funzioni sono state lanciate con grandi promesse sulla privacy per poi essere ritirate o modificate dopo un’ondata di critiche. Recall ne è l’esempio perfetto. Alla fine si è rivelata un incubo per la sicurezza, tanto che Microsoft ha dovuto fare marcia indietro e riprogettare l’intera funzione.
La telemetria di Windows
Parliamoci chiaro, Windows invia costantemente dati di telemetria a Microsoft. Dati su come si usa il sistema, quali app si aprono, quanto spesso si blocca qualcosa. Microsoft giura che serve per migliorare l’esperienza utente, debuggare problemi e rendere il sistema operativo più stabile. Può anche essere vero, ma il punto è che disattivare completamente questa raccolta dati non è intuitivo, e alcune informazioni continuano a viaggiare verso Redmond anche quando si pensa di aver chiuso tutti i rubinetti.
Il paradosso della privacy
Microsoft non è l’unica a trovarsi in questa posizione paradossale. Da un lato, promette la privacy totale, dall’altro porta avanti modelli di business basati sulla raccolta e analisi di dati. Google lo fa. Apple pure. Meta non si preoccupa nemmeno più di nasconderlo.
La differenza è che Microsoft ha scelto di fare la moralista. Di ricordarci che abbiamo il controllo, che i nostri dati sono sacri, che l’azienda combatte per i nostri diritti. Anche se poi la realtà è ben diversa.