AGCOM: IA contro l'hate speech, ma con prudenza

AGCOM: IA contro l'hate speech, ma con prudenza

L'AGCOM apre all'uso dell'IA nella lotta all'hate speech, ma senza delegare tale responsabilità a occhi chiusi: l'IA sia compendio all'analisi umana.
AGCOM: IA contro l'hate speech, ma con prudenza
L'AGCOM apre all'uso dell'IA nella lotta all'hate speech, ma senza delegare tale responsabilità a occhi chiusi: l'IA sia compendio all'analisi umana.

L’AGCOM intende intervenire in tema hate speech, piano estremamente scivoloso sul quale in passato già più volte si son sprecate parole non sempre andate a segno. In questo caso l’intervento del Presidente dell’Autorità, Angelo Marcello Cardani, sembrano invece attinte di pragmatismo e colorate di consapevolezza, poiché tracciano un quadro che sembra collimare con gli sforzi fin qui profusi dai big del settore.

Al centro dell’attenzione c’è l’Intelligenza Artificiale ed il ruolo che è in grado di interpretare in questo contesto. Possono algoritmi di AI sostituire l’intervento umano? Oppure possono essere valido compendio, ed in tal caso in quale forma e con quale grado di incisività? L’AGCOM si dice pronta a spendersi affinché questo delicato passaggio possa essere adeguatamente progettato, guidato e regolamentato:

L’Agcom si impegna a includere il rilevamento automatizzato e il monitoraggio dell’hate speech on line in un quadro regolatorio in cui l’Intelligenza Artificiale non sostituisce la valutazione umana nel perseguimento dei crimini di odio ma è limitata alla prevenzione e al monitoraggio.

L’AI può intervenire, insomma, ma soltanto entro specifici paletti e con uno specifico perimetro così delineato: “le attuali forme di moderazione e supervisione dei contenuti da parte di persone a ciò preposte sono insufficienti a causa dell’enorme estensione del fenomeno dell’hate speech” (dichiarazione alla quale occorre aggiungere la mole di materiale entro cui occorre agire, poiché per ampio che sia il volume di hate speech è una goccia in un flusso continuo di contenuti difficilmente monitorabili). Ma se l’aiuto di tecnologie intelligenti è il benvenuto – nella misura in cui può facilitare il raggiungimento dell’obiettivo -, al tempo stesso “gli strumenti di Intelligenza Artificiale esistenti necessitano di una messa a punto prima di essere implementati per un’efficace individuazione automatica dei contenuti di incitamento all’odio“.

Nessun salto nel vuoto, insomma: l’AGCOM intende frenare il fenomeno “hate speech”, ma non intende delegare questa battaglia a tecnologie delle quali ancora non si conoscono adeguatamente portata, efficacia, bias, problemi e garanzie. L’apertura però c’è e quindi l’autorità si dice espressamente impegnata

nella promozione di ulteriori ricerche con esperti nazionali e internazionali al fine di sviluppare un pacchetto di strumenti normativi che includa sia strumenti di monitoraggio-prevenzione – che potrebbero essere attuati attraverso iniziative di autoregolamentazione e co-regolamentazione -, sia strumenti tradizionali di comando e controllo per la qualificazione e il perseguimento giudiziario dell’hate speech.

Fonte: AGCOM
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
31 gen 2019
Link copiato negli appunti