ChatGPT: arriva la Lockdown Mode contro gli attacchi hacker

ChatGPT: arriva la Lockdown Mode contro gli attacchi hacker

OpenAI lancia la Lockdown Mode in ChatGPT per proteggere utenti e aziende dagli attacchi di prompt injection. Limita le connessioni esterne.
ChatGPT: arriva la Lockdown Mode contro gli attacchi hacker
OpenAI lancia la Lockdown Mode in ChatGPT per proteggere utenti e aziende dagli attacchi di prompt injection. Limita le connessioni esterne.

C’è un tipo di attacco informatico che non ha bisogno di violare firewall o indovinare password. Si chiama prompt injection, e funziona così: qualcuno inserisce istruzioni malevole nei dati che il chatbot analizza, ad esempio una pagina web, un documento, un’email, e il modello le esegue pensando che facciano parte della conversazione legittima. È come avvelenare il cibo di qualcuno, la vittima mangia normalmente, senza sospettare che quello che ha nel piatto contiene qualcosa che non dovrebbe esserci.

Con ChatGPT che si connette sempre di più a servizi esterni, che naviga il web, accede a file, interagisce con app aziendali, la superficie d’attacco si è allargata notevolmente. OpenAI ha deciso di intervenire con due nuovi strumenti di sicurezza: la Lockdown Mode e le etichette Elevated Risk. Non è paranoia, un chatbot connesso a tutto è anche un chatbot vulnerabile a tutto.

La Lockdown Mode di ChatGPT contro gli attacchi di prompt injection, come funziona

La Lockdown Mode è una modalità opzionale pensata per utenti e aziende con esigenze di sicurezza elevate. Quando attivata, limita drasticamente il modo in cui ChatGPT può interagire con i sistemi esterni, disabilitando strumenti e funzionalità che un hacker potrebbe sfruttare attraverso le conversazioni o le app collegate.

Ad esempio, per impedire che dati sensibili vengano esfiltrati attraverso la navigazione web, in Lockdown Mode nessuna richiesta di rete esce dalla rete controllata da OpenAI. La navigazione è limitata a contenuti nella cache, niente connessioni live, niente chiamate esterne, niente porte lasciate socchiuse. Il chatbot perde funzionalità, ma guadagna in impermeabilità.

Gli amministratori aziendali possono attivare la modalità dalle impostazioni del Workspace, creando un ruolo dedicato che aggiunge restrizioni di sicurezza sopra i controlli amministrativi esistenti. Possono anche decidere quali app e azioni restano disponibili per chi opera in Lockdown Mode, per calibrare sicurezza e usabilità.

Per ora, la Lockdown Mode è disponibile per ChatGPT Enterprise, Edu, Healthcare e Teachers. L’arrivo per gli utenti consumer è previsto in futuro.

Le etichette di rischio

Il secondo strumento è meno drastico, ma altrettanto utile. Le etichette Elevated Risk sono avvisi che compaiono direttamente nell’interfaccia quando si attiva una funzionalità rischiosa, di solito quando si connette ChatGPT ad app esterne o al web.

Ogni etichetta spiega cosa fa la funzionalità, cosa cambia quando viene attivata, a quali rischi espone e quando il suo utilizzo è appropriato. Non blocca nulla, ma informa. In Codex, per esempio, concedere l’accesso alla rete permette al sistema di compiere azioni sul web, un’etichetta Elevated Risk evidenzia le implicazioni di sicurezza perché lo sviluppatore possa decidere con cognizione di causa.

OpenAI ha dichiarato che le etichette verranno rimosse man mano che le protezioni miglioreranno e i rischi saranno sufficientemente mitigati. È un sistema dinamico, oggi una funzionalità è etichettata come rischiosa, domani potrebbe non esserlo più. L’approccio è ragionevole, meglio avvisare troppo che troppo poco, soprattutto quando la posta in gioco sono i dati aziendali.

Il prezzo della connessione

Più ChatGPT diventa potente e interconnesso, più ha bisogno di guardrail. La Lockdown Mode e le etichette di rischio sono la risposta di OpenAI a un problema che diventa sempre più serio con ogni nuova integrazione. Ogni app collegata, ogni accesso web, ogni plugin è una porta che può essere aperta dall’utente, ma anche da chi sa come manipolare il sistema.

Per le aziende che usano ChatGPT per gestire dati sensibili, come sanità, istruzione, documenti riservati, queste protezioni non sono un lusso. Sono il minimo sindacale.

Fonte: OpenAI
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
17 feb 2026
Link copiato negli appunti