Microsoft ha confermato un bug piuttosto grave nella versione di Copilot disponibile nella suite di produttività cloud. L’assistente digitale non ha rispettato le policy DLP (Data Loss Prevention) delle aziende, generando riassunti di email confidenziali. Un primo fix è stato rilasciato all’inizio di febbraio. Il Parlamento europeo ha vietato l’uso delle funzionalità AI proprio per evitare simili incidenti di sicurezza.
Quando l’AI non rispetta le regole
Microsoft 365 Copilot (o Copilot Chat) è la versione dell’assistente digitale inclusa negli abbonamenti dedicati alle aziende. Rispetto a quella consumer (gratuita) ci sono protezioni più avanzate per evitare la divulgazione di dati riservati. Vengono in particolare offerte misure che devono rispettare le policy DLP (Data Loss Prevention).
Microsoft ha pubblicato un avviso di sicurezza nel centro messaggi della suite di produttività a fine gennaio per confermare un bug in Copilot Chat. L’assistente legge e riassume le email archiviate nelle cartelle Posta inviata e Bozze degli utenti, comprese quelle che contengono etichette di riservatezza espressamente progettate per limitare l’accesso tramite strumenti automatizzati.
In pratica, Copilot Chat non rispetta le policy DLP aziendali e accede alle email confidenziali di Outlook. Microsoft ha confermato che la causa è un errore di codice non specificato. Il fix è stato distribuito all’inizio di febbraio. L’azienda di Redmond ha comunicato che è in corso il monitoraggio e che sono stati contattati alcuni utenti interessati per verificare l’efficacia della correzione.
Microsoft non ha specificato quando il problema verrà completamente risolto, né il numero di utenti o aziende interessati. Quanto successo evidenzia che non ci sono garanzie assolute di sicurezza con chatbot o agenti AI. Proprio per questo motivo, il Parlamento europeo ha vietato l’uso delle funzionalità AI sui dispositivi di lavoro.