Claude Code: sandbox per garantire la sicurezza

Claude Code: sandbox per garantire la sicurezza

Anthropic ha implementato due funzionalità di sandboxing per isolare file system e rete, impedendo gli attacchi di prompt injection contro Claude Code.
Claude Code: sandbox per garantire la sicurezza
Anthropic ha implementato due funzionalità di sandboxing per isolare file system e rete, impedendo gli attacchi di prompt injection contro Claude Code.

Anthropic ha annunciato la disponibilità di Claude Code su web e app iOS (anteprima beta riservata agli abbonati Pro e Max). Gli utenti possono ora accedere più facilmente al potente agente AI dedicato alla programmazione. L’azienda californiana ha sviluppato due funzionalità di sandboxing per garantire una maggiore sicurezza.

Protezioni contro il prompt injection

Claude Code permette di scrivere, modificare e testare il codice. L’agente AI può eseguire comandi, accedere ai repository di GitHub e modificare file. Queste attività possono però introdurre rischi e facilitare i cosiddetti attacchi di prompt injection. Anthropic ha quindi sviluppato due funzionalità di sandboxing che offrono una maggiore sicurezza, oltre a ridurre le richieste di permessi.

Claude Code utilizza un modello basato su permessi. Per impostazione predefinita è “read-only”, quindi esecuzione di comandi e modifiche devono essere autorizzate dall’utente. Ciò rallenta il ciclo di sviluppo e può causare un effetto collaterale spiacevole, ovvero l’approvazione delle azioni senza prestare attenzione alle possibili conseguenze.

L’azienda californiana ha creato quindi un ambiente isolato per l’esecuzione del codice. I comandi del tool bash sono eseguiti all’interno dei “confini” impostati dall’utente. L’agente AI opera liberamente nella sandbox senza chiedere permessi. Se Claude prova ad accedere all’esterno, l’utente riceverà una notifica.

Le due funzionalità di sandboxing riguardano file system e rete. Claude può accedere in lettura e scrittura solo a file e directory prestabilite. Ciò evita la modifica di file sensibili tramite un attacco di prompt injection. L’agente AI può inoltre accedere solo a server approvati.

Le due funzionalità sono configurabili e devono essere attive allo stesso tempo. Senza l’isolamento della rete, un agente AI compromesso potrebbe esfiltrare file sensibili come le chiavi SSH, mentre senza l’isolamento del file system, un agente AI compromesso potrebbe facilmente uscire dalla sandbox e ottenere l’accesso alla rete.

Il codice della sandbox è disponibile su GitHub, quindi può essere implementata anche per gli agenti AI di terze parti. Ulteriori dettagli sono stati pubblicati sul sito dedicato agli sviluppatori.

Fonte: Anthropic
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
21 ott 2025
Link copiato negli appunti