Commissione Europea, così regolamenteremo l'IA

Commissione Europea, così regolamenteremo l'IA

La Commissione Europea classifica i contesti d'uso dell'Intelligenza Artificiale in base al rischio correlato e sulla base di questo pone precisi limiti.
Commissione Europea, così regolamenteremo l'IA
La Commissione Europea classifica i contesti d'uso dell'Intelligenza Artificiale in base al rischio correlato e sulla base di questo pone precisi limiti.

Se l’Europa vuole ambire ad un ruolo di leadership nello sviluppo internazionale dell’Intelligenza Artificiale, ha bisogno non soltanto di ricerca e sviluppo, ma anche di una base normativa affidabile, omogenea ed avanzata. Nasce di qui la proposta con cui la Commissione Europea porta avanti per la prima volta una cornice legislativa entro cui inquadrare il tema, ponendo dei paletti certi entro cui l’IA potrà svilupparsi sul vecchio continente ed entro i quali potrà esprimere al meglio il proprio potenziale.

Per quanto riguarda l’intelligenza artificiale, la fiducia non è facoltativa, è indispensabile. Queste regole rappresentano una svolta, che consentirà all’UE di guidare lo sviluppo di nuove norme globali per garantire che l’IA possa essere considerata affidabile. Definendo le norme possiamo spianare la strada a una tecnologia etica in tutto il mondo e garantire che l’UE rimanga competitiva. Le nostre regole saranno adeguate alle esigenze future e favorevoli all’innovazione e interverranno ove strettamente necessario: quando sono in gioco la sicurezza e i diritti fondamentali dei cittadini dell’UE

Margrethe Vestager, Vicepresidente esecutiva per Un’Europa pronta per l’era digitale

Lo scopo è quello di definire un’Intelligenza Artificiale che possa dirsi “antropocentrica, sostenibile, sicura, inclusiva e affidabile, tutte parole di estremo significato e portatrici di grandi responsabilità.

IA, limiti in base al rischio

A pesare sulle limitazioni dell’Intelligenza Artificiale sarà il contesto entro cui va ad agire. La definizione dei singoli contesti fa dunque riferimento ad una differente perimetrazione normativa, calibrando tutto in base al rischio relativo correlato.

Questi sono i differenti gradi di rischio considerati dalla proposta europea:

  • rischio inaccettabile
    i sistemi di IA considerati una chiara minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone saranno vietati. Sono compresi i sistemi o le applicazioni di IA che manipolano il comportamento umano per aggirare il libero arbitrio degli utenti (ad esempio, giocattoli che utilizzano l’assistenza vocale per incoraggiare i comportamenti pericolosi dei minori) e i sistemi che consentono ai governi di attribuire un punteggio sociale“. In questi casi l’uso dell’IA sarà dunque generalmente vietato, proprio in virtù di un profilo di rischio che l’UE non intende accettare;
  • rischio alto
    sono considerati ad alto rischio i sistemi in cui la tecnologia di IA è utilizzata:

    • in infrastrutture critiche (ad esempio i trasporti), poiché potrebbe mettere a rischio la vita e la salute dei cittadini;
    • nell’istruzione o formazione professionale, poiché può determinare l’accesso all’istruzione e il percorso professionale della vita di una persona (ad esempio, attribuzione del punteggio degli esami);
    • in componenti di sicurezza dei prodotti (ad esempio un’applicazione di IA utilizzata nella chirurgia assistita da robot);
    • nell’ambito dell’occupazione, della gestione dei lavoratori e dell’accesso al lavoro autonomo (ad esempio, software di selezione dei CV per le procedure di assunzione);
    • in servizi pubblici e privati essenziali (ad esempio, lo scoring del credito che può negare ai cittadini la possibilità di ottenere un prestito);
    • in attività di contrasto che possono interferire con i diritti fondamentali delle persone (ad esempio, valutazione dell’affidabilità delle prove);
    • nella gestione della migrazione, dell’asilo e del controllo delle frontiere (ad esempio, verifica dell’autenticità dei documenti di viaggio);
    • nell’amministrazione della giustizia e nei processi democratici (ad esempio, applicazione della legge a una serie concreta di fatti)

    In particolare saranno considerati ad alto rischio tutti i sistemi di identificazione biometrica remota, con poche eccezioni definite e regolamentate, legate a reati gravi o casi di pericolo nei quali l’identificazione di un soggetto è fondamentale ai fini della sicurezza (previa autorizzazione di un organo giudiziario). Questa apertura non vieta dunque del tutto la sorveglianza sulla popolazione, ma crea un sistema di contrappesi tale per cui soltanto casi estremi, regolamentati ed autorizzati possano fare breccia ed ampliare temporaneamente i limiti canonici imposti all’uso dell’IA per questi scopi.

  • rischio limitato
    ossia sistemi di IA con specifici obblighi di trasparenza: quando utilizzano sistemi di IA come i chatbot, gli utenti dovrebbero essere consapevoli del fatto che stanno interagendo con una macchina, in modo da poter decidere con cognizione di causa se continuare ad usarli oppure no
  • rischio minimo
    la proposta legislativa consente il libero utilizzo di applicazioni quali videogiochi o filtri spam basati sull’IA. La grande maggioranza dei sistemi di IA rientra in questa categoria. Il progetto di regolamento non interviene in questo caso, poiché questi sistemi di IA presentano solo un rischio minimo o nullo per i diritti o la sicurezza dei cittadini

Un apposito comitato europeo per l’Intelligenza Artificiale dovrà operare uno stretto monitoraggio nazionale sulle modalità di adozione del quadro definito a livello di Commissione. Una volta adottata la bozza dal Parlamento Europeo ed una volta recepita la proposta dagli Stati membri, i regolamenti saranno direttamente applicabili su tutto il territorio europeo.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
21 apr 2021
Link copiato negli appunti