Apple non disattiverà la crittografia E2E

Apple non disattiverà la crittografia E2E

Apple ha pubblicato una serie di FAQ per chiarire il funzionamento delle due tecnologie sviluppate per rilevare immagini sessualmente esplicite.
Apple ha pubblicato una serie di FAQ per chiarire il funzionamento delle due tecnologie sviluppate per rilevare immagini sessualmente esplicite.

Dopo aver ricevuto diverse critiche (anche da WhatsApp), Apple ha pubblicato una serie di FAQ per chiarire alcuni aspetti delle due tecnologie introdotte per bloccare la distribuzione di immagini pedopornografiche attraverso i servizi iMessagge e iCloud Foto. L'azienda di Cupertino ha confermato che non verrà disattivata la crittografia end-to-end.

Apple promette privacy e sicurezza

Apple chiarisce innanzitutto la differenza tra le due tecnologie. La funzionalità denominata “Communication safety” dell'app Messaggi è stata progettata per impedire la visualizzazione di immagini sessualmente esplicite sui dispositivi dei minori. Utilizzando il machine learning “on-device”, le immagini inviate o ricevute vengono sfocate e i genitori ricevono una notifica (quindi funziona solo per gli account del gruppo Famiglia), se l'età del figlio è inferiore a 12 anni.

La funzionalità “CSAM (Child Sexual Abuse Material) detection” di iCloud Foto effettua invece la scansione delle foto prima dell'upload. Se viene rilevata una corrispondenza con immagini presenti nel database del National Center for Missing and Exploited Children (NCMEC), Apple invia una segnalazione alle autorità. L'azienda di Cupertino non vede le foto (il confronto viene fatto tramite hash) e la tecnologia funziona solo se l'utente utilizza iCloud.

Apple specifica inoltre che la funzionalità dell'app Messaggi non prevede la condivisione delle informazioni con le forze dell'ordine e non comporta la disattivazione della crittografia end-to-end, contrariamente a quanto affermano Electronic Frontier Foundation (EFF) e Center for Democracy & Technology (CDT).

Per quanto riguarda la scansione CSAM, l'azienda di Cupertino sottolinea che viene effettuata una verifica “umana”, prima di inviare la segnalazione al NCMEC. Inoltre non verrà soddisfatta nessuna richiesta ricevuta dai governi su immagini di tipo differente. Apple dichiara infine che la tecnologia di scansione CSAM è molto affidabile. In ogni caso il controllo umano eviterà di segnalare gli account di utenti innocenti (falsi positivi).

Fonte: Apple (PDF)
Link copiato negli appunti

Ti potrebbe interessare

09 08 2021
Link copiato negli appunti