AI Act: ban per sistemi AI con rischio inaccettabile

AI Act: ban per sistemi AI con rischio inaccettabile

Dal 2 febbraio è vietato l'uso dei sistemi di intelligenza artificiale con rischio inaccettabile, tra cui quelli che attribuiscono un punteggio sociale.
AI Act: ban per sistemi AI con rischio inaccettabile
Dal 2 febbraio è vietato l'uso dei sistemi di intelligenza artificiale con rischio inaccettabile, tra cui quelli che attribuiscono un punteggio sociale.

A partire dal 2 febbraio 2025 vengono applicate le dispositivi dell’AI Act che vietano l’uso dei sistemi di intelligenza artificiale con rischio inaccettabile. Questa è la prima scadenza del regolamento entrato in vigore il 1 agosto 2024. La timeline completa è disponibile sul sito ufficiale.

Ban per i sistemi AI con rischio inaccettabile

L’AI Act prevede una serie di regole per i sistemi di intelligenza artificiale suddivise in base al livello di rischio. L’applicazione avverrà in maniera graduale fino al 2 agosto 2027. La prima scadenza (2 febbraio 2025) riguarda i sistemi AI con rischio inaccettabile che sono assolutamente vietati perché violano i diritti fondamentali delle persone. Questo è un elenco non esaustivo di usi vietati:

  • sfruttamento delle vulnerabilità delle persone, manipolazione e utilizzo di tecniche subliminali
  • punteggio sociale per finalità pubbliche e private
  • attività di polizia predittiva individuale basate unicamente sulla profilazione delle persone
  • scraping non mirato di immagini facciali da Internet o telecamere a circuito chiuso per la creazione o l’ampliamento di banche dati
  • riconoscimento delle emozioni sul luogo di lavoro e negli istituti di istruzione, eccetto per motivi medici o di sicurezza (ad esempio il monitoraggio dei livelli di stanchezza di un pilota)
  • categorizzazione biometrica delle persone fisiche sulla base di dati biometrici per trarre deduzioni o inferenze in merito a razza, opinioni politiche, appartenenza sindacale, convinzioni religiose o filosofiche o orientamento sessuale. Sarà ancora possibile etichettare o filtrare set di dati e categorizzare i dati nell’ambito delle attività delle forze dell’ordine
  • identificazione biometrica remota in tempo reale in spazi accessibili al pubblico da parte delle forze dell’ordine

Per l’ultimo uso sono previste alcune eccezioni. L’identificazione biometrica remota in tempo reale è possibile solo in tre casi:

  • attività relative a 16 reati specifici molto gravi
  • ricerca mirata di specifiche vittime, rapimento, tratta e sfruttamento sessuale di esseri umani, persone scomparse
  • prevenzione di minacce per la vita o l’incolumità fisica delle persone o risposta a una minaccia attuale o prevedibile di attacco terroristico

È comunque necessaria un’autorizzazione preventiva rilasciata da un’autorità giudiziaria o amministrativa indipendente. Tale autorizzazione dovrebbe essere preceduta da una valutazione preventiva d’impatto sui diritti fondamentali e dovrebbe essere notificata alle autorità di vigilanza del mercato e per la protezione dei dati.

In caso di violazione, le aziende rischiano sanzioni fino a 35 milioni di euro o il 7% delle entrate globali annuali. Quasi 170 aziende hanno sottoscritto gli AI Pact, impegnandosi a rispettare le regole prima della loro applicazione. Nell’elenco ci sono molte aziende che sviluppano sistemi AI, tra cui OpenAI, Amazon e Microsoft. Non ci sono invece Apple, Meta, NVIDIA, Mistral AI, Anthropic e Inflection AI.

Fonte: TechCrunch
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
3 feb 2025
Link copiato negli appunti