OpenAI avviserà la polizia dopo il caso del killer con due account

OpenAI avviserà la polizia dopo il caso del killer con due account

Dopo la sparatoria in Canada, OpenAI promette di avvisare le forze dell'ordine in caso di minacce credibili su ChatGPT.
OpenAI avviserà la polizia dopo il caso del killer con due account
Dopo la sparatoria in Canada, OpenAI promette di avvisare le forze dell'ordine in caso di minacce credibili su ChatGPT.

OpenAI aveva bannato l’account di un uomo che mostrava segnali di violenza imminente nelle conversazioni con ChatGPT. Non contento, l’uomo ha aperto un secondo account, e poi ha compiuto una strage. OpenAI non aveva avvisato nessuno, né per il primo account, né per il secondo, che purtroppo ha scoperto solo dopo che il nome dell’autore della sparatoria è diventato pubblico. Adesso l’azienda promette che le cose cambieranno.

OpenAI rafforza la sicurezza dopo la strage in Canada

La vicenda riguarda la sparatoria di massa di Tumbler Ridge, nella Columbia Britannica, avvenuta nel 2025. Il sistema automatico di monitoraggio di OpenAI aveva identificato contenuti preoccupanti nell’account del sospettato, e aveva bannato l’account. Ma senza inviare alcuna segnalazione alle forze dell’ordine. L’uomo ha semplicemente creato un nuovo account e ha continuato a usare ChatGPT. OpenAI ha scoperto il secondo account solo dopo la strage, quando il nome del responsabile è stato reso noto pubblicamente.

Otto persone sono morte nella sparatoria, compreso l’autore, Jesse Van Rootselaar. Il Wall Street Journal ha rivelato che alcuni dipendenti di OpenAI avevano sollecitato i vertici dell’azienda di avvertire le autorità, ma la dirigenza aveva preferito non farlo.

La lettera alle autorità canadesi

Secondo quanto riportato da Politico e Washington Post, OpenAI ha inviato una lettera alle autorità canadesi in cui si impegna a rafforzare i protocolli di sicurezza. Ann O’Leary, vicepresidente per le politiche globali dell’azienda, ha scritto che OpenAI modificherà i sistemi di rilevamento per impedire agli utenti bannati di creare nuovi account, un problema che forse fino a oggi non era stato affrontato con sufficiente serietà.

Inoltre, d’ora in poi OpenAI avviserà le forze dell’ordine quando rileva minacce imminenti e credibili nelle conversazioni su ChatGPT, anche se l’utente non specifica un obiettivo, i mezzi o il momento della violenza pianificata. O’Leary ha spiegato che se queste regole fossero state in vigore quando il primo account del killer fu bannato, la polizia sarebbe stata avvertita. Stabilirà anche un punto di contatto dedicato per le forze dell’ordine canadesi, per velocizzare la condivisione di informazioni quando necessario.

Chiaramente, la decisione di OpenAI di non segnalare il primo account è un fallimento. Tant’è che il Canada ha minacciato di regolamentare i chatbot AI nel Paese se le aziende che li producono non dimostreranno di avere protezioni adeguate per gli utenti.

Il sistema di monitoraggio arriverà anche nel resto del mondo?

Non è chiaro se OpenAI intenda estendere le stesse modifiche anche negli Stati Uniti e nel resto del mondo, o se queste promesse rimarranno limitate al Canada come risposta alla pressione politica locale. Onestamente? Dovrebbe valere ovunque. Un sistema di monitoraggio che identifica una minaccia, banna un account e poi non fa nulla, né avvisa la polizia, né impedisce all’utente di rientrare dalla porta accanto, non è un sistema di sicurezza. È un’illusione di sicurezza.

Fonte: POLITICO
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
27 feb 2026
Link copiato negli appunti