Pochi giorni fa, Anthropic ha lanciato Claude Opus 4 e Claude Sonnet 4. I nuovi modelli AI offrono prestazioni elevate, in particolare per quanto riguarda il coding. Ma nel tentativo di renderle il più sicure possibile, Anthropic potrebbe essersi spinta un po’ troppo oltre.
Claude Opus 4 potrebbe segnalare gli utenti alla polizia se volessero commettere un reato
Il responsabile della sicurezza dell’intelligenza artificiale di Anthropic, Sam Bowman, ha scatenato il finimondo su X negli ultimi giorni. In una serie di post, ha sottolineato che le richieste apertamente immorali potrebbero comportare una segnalazione automatica alle autorità.
“Con questo tipo di input, se il modello vede che si sta facendo qualcosa di gravemente scorretto, come commercializzare un farmaco sulla base di dati falsificati, cercherà di utilizzare uno strumento di posta elettronica per segnalarlo a chi di dovere“, ha spiegato Bowman.
Anthropic fa marcia indietro di fronte alle proteste
Quando Bowman ha dichiarato che il modello Claude 4 Opus potrebbe – in teoria – allertare le autorità in caso di richieste gravemente immorali o illegali (come falsificare dati medici per vendere farmaci), molti utenti hanno reagito con forte preoccupazione. Anche se si trattava di una possibilità remota e sperimentale, l’idea che un chatbot potesse denunciare gli utenti alle forze dell’ordine ha fatto temere per la privacy e la libertà di espressione.
Le critiche sono state così intense che Bowman ha deciso di cancellare diversi suoi post. Ha poi chiarito che i suoi commenti erano stati fraintesi: questa funzione non è presente nell’uso quotidiano del modello. Compare solo in ambienti di test interni, dove ai modelli viene concesso accesso sperimentale a strumenti automatizzati, che normalmente non sono disponibili per il pubblico.
I deleted the earlier tweet on whistleblowing as it was being pulled out of context.
TBC: This isn't a new Claude feature and it's not possible in normal usage. It shows up in testing environments where we give it unusually free access to tools and very unusual instructions.
— Sam Bowman (@sleepinyourhat) May 22, 2025
Tuttavia, il solo fatto che una simile opzione esista, anche in fase sperimentale, solleva un interrogativo: stiamo andando verso un futuro in cui le intelligenze artificiali potrebbero sorvegliare i nostri comportamenti? La funzione nasce con l’intento di garantire sicurezza, ma potrebbe anche trasformarsi in uno strumento di controllo.