Come Lombroso: l'IA di cui non abbiamo bisogno

Una lettera per fermare la pubblicazione di una ricerca che sostiene di poter prevedere l'attitudine a delinquere sulla base dei tratti somatici.
Una lettera per fermare la pubblicazione di una ricerca che sostiene di poter prevedere l'attitudine a delinquere sulla base dei tratti somatici.

Un po’ Minority Report e un po’ Black Mirror: una tecnologia che pretende di poter prevedere con un’accuratezza pari all’80% se un soggetto commetterà o meno un crimine da una semplice analisi fisiognomica, più precisamente esaminandone i tratti somatici del volto. A descriverla un articolo in pubblicazione su Springer Nature. Insomma, le teorie di Lombroso applicate all’epoca dell’intelligenza artificiale.

Aggiornamento

A differenza rispetto a quanto emerso inizialmente, l’articolo sarebbe stato rifiutato da Springer Nature, che spiega così l’accaduto:

Prendiamo atto delle riserve relative a questo articolo e ci pregiamo chiarire che esso non è mai stato accettato per la pubblicazione. È stato sottomesso a una conferenza a venire per la quale la Springer pubblicherà gli atti nella serie editoriale Transactions on Computational Science and Computational Intelligence ed è stato sottoposto a un regolare processo di revisione. La decisione da parte dell’editore della serie di non accettare l’articolo è stata formulata martedì 16 giugno u.s. ed è stata regolarmente comunicata agli autori lunedì 22 giugno u.s.

Algoritmi e pregiudizi: prevedere i crimini

Nel tentativo di bloccare la diffusione della ricerca oltre 1.000 addetti ai lavori da realtà come Harvard, MIT, Google e Microsoft hanno firmato una lettera aperta (link a fondo articolo) chiedendo di non dar voce a un sistema ritenuto responsabile della cosiddetta Tech-to-Prison Pipeline. Non esattamente ciò di cui si ha bisogno in un momento tanto delicato che ha visto inasprirsi i rapporti tra l’opinione pubblica e le autorità, in particolare negli Stati Uniti in seguito all’uccisione di George Floyd da parte di un agente di polizia.

Sul tema del riconoscimento facciale sono intervenute nell’ultimo periodo società come Google, Microsoft, IBM e Amazon per introdurre paletti all’impiego dell’IA, soprattutto per quanto concerne le finalità di sorveglianza.

Più volte anche su queste pagine abbiamo scritto di bias che influenzano il comportamento degli algoritmi di questo tipo innescando ripercussioni che interessano con maggiore frequenza le persone di pelle scura. La pubblicazione della ricerca nel momento in cui gran parte dell’industria hi-tech si sta schierando dalla parte del movimento Black Lives Matter e contro il razzismo contribuirebbe ad accendere ancor di più il dibattito, al netto della sua presunta (e tutta da verificare) efficacia.

Dell’esigenza di porre un freno all’utilizzo del riconoscimento facciale si è iniziato a parlare con insistenza da inizio anno quando è venuta alla luce l’attività della startup newyorkese Clearview la cui tecnologia era già stata fornita a centinaia di autorità e forze di polizia nel mondo. Il tema tiene banco anche in Europa con le istituzioni continentali che per il momento hanno deciso di non introdurre alcun ban e in Italia dove a fine gennaio è stata presentata una interrogazione parlamentare per ora dimenticata in fondo a qualche cassetto.

Fonte: Medium
Link copiato negli appunti

Ti potrebbe interessare

Link copiato negli appunti