A partire dal 2 febbraio 2025 vengono applicate le dispositivi dell’AI Act che vietano l’uso dei sistemi di intelligenza artificiale con rischio inaccettabile. Questa è la prima scadenza del regolamento entrato in vigore il 1 agosto 2024. La timeline completa è disponibile sul sito ufficiale.
Ban per i sistemi AI con rischio inaccettabile
L’AI Act prevede una serie di regole per i sistemi di intelligenza artificiale suddivise in base al livello di rischio. L’applicazione avverrà in maniera graduale fino al 2 agosto 2027. La prima scadenza (2 febbraio 2025) riguarda i sistemi AI con rischio inaccettabile che sono assolutamente vietati perché violano i diritti fondamentali delle persone. Questo è un elenco non esaustivo di usi vietati:
- sfruttamento delle vulnerabilità delle persone, manipolazione e utilizzo di tecniche subliminali
- punteggio sociale per finalità pubbliche e private
- attività di polizia predittiva individuale basate unicamente sulla profilazione delle persone
- scraping non mirato di immagini facciali da Internet o telecamere a circuito chiuso per la creazione o l’ampliamento di banche dati
- riconoscimento delle emozioni sul luogo di lavoro e negli istituti di istruzione, eccetto per motivi medici o di sicurezza (ad esempio il monitoraggio dei livelli di stanchezza di un pilota)
- categorizzazione biometrica delle persone fisiche sulla base di dati biometrici per trarre deduzioni o inferenze in merito a razza, opinioni politiche, appartenenza sindacale, convinzioni religiose o filosofiche o orientamento sessuale. Sarà ancora possibile etichettare o filtrare set di dati e categorizzare i dati nell’ambito delle attività delle forze dell’ordine
- identificazione biometrica remota in tempo reale in spazi accessibili al pubblico da parte delle forze dell’ordine
Per l’ultimo uso sono previste alcune eccezioni. L’identificazione biometrica remota in tempo reale è possibile solo in tre casi:
- attività relative a 16 reati specifici molto gravi
- ricerca mirata di specifiche vittime, rapimento, tratta e sfruttamento sessuale di esseri umani, persone scomparse
- prevenzione di minacce per la vita o l’incolumità fisica delle persone o risposta a una minaccia attuale o prevedibile di attacco terroristico
È comunque necessaria un’autorizzazione preventiva rilasciata da un’autorità giudiziaria o amministrativa indipendente. Tale autorizzazione dovrebbe essere preceduta da una valutazione preventiva d’impatto sui diritti fondamentali e dovrebbe essere notificata alle autorità di vigilanza del mercato e per la protezione dei dati.
In caso di violazione, le aziende rischiano sanzioni fino a 35 milioni di euro o il 7% delle entrate globali annuali. Quasi 170 aziende hanno sottoscritto gli AI Pact, impegnandosi a rispettare le regole prima della loro applicazione. Nell’elenco ci sono molte aziende che sviluppano sistemi AI, tra cui OpenAI, Amazon e Microsoft. Non ci sono invece Apple, Meta, NVIDIA, Mistral AI, Anthropic e Inflection AI.