Europa: no all'IA per sorveglianza e scoring

La Commissione Europea pubblica nuove raccomandazioni per uno sviluppo dell'intelligenza artificiale rispettoso dei paletti di stampo etico.

L’Europa mette nuovamente nero su bianco l’intenzione di fissare dei paletti per lo sviluppo dell’intelligenza artificiale. L’obiettivo è quello di supportare l’innovazione, ma al tempo stesso di evitare che ne venga fatto un utilizzo non conforme a principi di carattere etico. Oggi la pubblicazione di un nuovo documento da parte del gruppo AI HLEG (High-Level Expert Group on AI), che segue le linee guida già condivise in aprile.

Europa: IA e sviluppo etico

Questa volta si fa esplicito riferimento alle misure da adottare perché non si possa far leva sugli algoritmi nella realizzazione di tecnologie destinate alla sorveglianza di massa, né per sistemi di scoring ovvero quelli che partendo dall’analisi di informazioni relative a un individuo (fedina penale, situazione finanziaria, interazioni con i social e così via) gli assegnano un punteggio. Si vuol dunque scongiurare che nel vecchio continente possano essere messe in campo iniziative dal sapore quasi distopico, simili ad alcune già avvistate in Cina: su queste pagine abbiamo parlato del rating per i cittadini e di un’intelligenza artificiale in grado di riconoscere le persone da come camminano.

Se da una parte vi è l’esigenza di garantire la sicurezza della collettività, dall’altra inevitabilmente ci sono da tenere in considerazione le ripercussioni sulla privacy e sulla sfera personale di ognuno. La finalità perseguita è quella che mira a trovare il migliore equilibrio tra le due cose.

Ricerca e formazione

Il documento invita inoltre a individuare le aree nelle quali la ricerca sull’IA necessita di finanziamenti. Si raccomanda poi la messa in campo di progetti volti a portare la disciplina nelle scuole, così da stimolarne l’interesse nei più giovani. Ancora, vengono suggeriti nuovi metodi utili per misurare l’impatto derivante dallo sviluppo di nuove forme d’intelligenza artificiale.

Un altro punto focalizza l’attenzione sull’esigenza di evitare che gli algoritmi analizzino informazioni riguardanti lo stato di salute o mentale delle persone, ad esempio mediante tracking del volto o tramite l’accesso a parametri biometrici: talvolta non sono necessarie le cartelle cliniche, bastano i dati che noi stessi forniamo ai dispositivi utilizzati quotidianamente.

Raccomandazioni, non leggi

In merito al rating dei cittadini, potrebbero rientrare in questa categoria anche le soluzioni sviluppate o adottate ad esempio dalle compagnie assicurative o dalle realtà operanti nell’ambito finanziario, che già oggi fanno qualcosa di molto simile attribuendo (a ognuno di noi) un tasso di rischio per la sottoscrizione delle polizze così come per l’erogazione di un prestito.

Va precisato che ognuno dei punti descritti è al momento da interpretare come una raccomandazione, non in qualità di proposta normativa. La loro eventuale concretizzazione in leggi o in limitazioni da rispettare non potrebbe che entrare in conflitto con gli enormi interessi di coloro che già stanno investendo in questa direzione.

La tua email sarà utilizzata per comunicarti se qualcuno risponde al tuo commento e non sarà pubblicato. Dichiari di avere preso visione e di accettare quanto previsto dalla informativa privacy

Fonte: Commissione Europea
Chiudi i commenti