Claude di Anthropic denuncia gli utenti sospetti alle autorità?

Claude di Anthropic denuncia gli utenti sospetti alle autorità?

Sam Bowman di Anthropic annuncia e poi smentisce che Claude 4 può avvisare la polizia in caso di reati. Ecco cosa c’è di vero.
Claude di Anthropic denuncia gli utenti sospetti alle autorità?
Sam Bowman di Anthropic annuncia e poi smentisce che Claude 4 può avvisare la polizia in caso di reati. Ecco cosa c’è di vero.

Pochi giorni fa, Anthropic ha lanciato Claude Opus 4 e Claude Sonnet 4. I nuovi modelli AI offrono prestazioni elevate, in particolare per quanto riguarda il coding. Ma nel tentativo di renderle il più sicure possibile, Anthropic potrebbe essersi spinta un po’ troppo oltre.

Claude Opus 4 potrebbe segnalare gli utenti alla polizia se volessero commettere un reato

Il responsabile della sicurezza dell’intelligenza artificiale di Anthropic, Sam Bowman, ha scatenato il finimondo su X negli ultimi giorni. In una serie di post, ha sottolineato che le richieste apertamente immorali potrebbero comportare una segnalazione automatica alle autorità.

“Con questo tipo di input, se il modello vede che si sta facendo qualcosa di gravemente scorretto, come commercializzare un farmaco sulla base di dati falsificati, cercherà di utilizzare uno strumento di posta elettronica per segnalarlo a chi di dovere“, ha spiegato Bowman.

Anthropic fa marcia indietro di fronte alle proteste

Quando Bowman ha dichiarato che il modello Claude 4 Opus potrebbe – in teoria – allertare le autorità in caso di richieste gravemente immorali o illegali (come falsificare dati medici per vendere farmaci), molti utenti hanno reagito con forte preoccupazione. Anche se si trattava di una possibilità remota e sperimentale, l’idea che un chatbot potesse denunciare gli utenti alle forze dell’ordine ha fatto temere per la privacy e la libertà di espressione.

Le critiche sono state così intense che Bowman ha deciso di cancellare diversi suoi post. Ha poi chiarito che i suoi commenti erano stati fraintesi: questa funzione non è presente nell’uso quotidiano del modello. Compare solo in ambienti di test interni, dove ai modelli viene concesso accesso sperimentale a strumenti automatizzati, che normalmente non sono disponibili per il pubblico.

Tuttavia, il solo fatto che una simile opzione esista, anche in fase sperimentale, solleva un interrogativo: stiamo andando verso un futuro in cui le intelligenze artificiali potrebbero sorvegliare i nostri comportamenti? La funzione nasce con l’intento di garantire sicurezza, ma potrebbe anche trasformarsi in uno strumento di controllo.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
26 mag 2025
Link copiato negli appunti