Deepfake: l'IA e i pericoli per la società

Deepfake: l'IA e i pericoli per la società

L'allarme lanciato negli Stati Uniti: l'alterazione dei contenuti mediante l'impiego di strumenti IA costituisce un serio pericolo per la società.
Deepfake: l'IA e i pericoli per la società
L'allarme lanciato negli Stati Uniti: l'alterazione dei contenuti mediante l'impiego di strumenti IA costituisce un serio pericolo per la società.

L’iniezione di intelligenza artificiale a cui si sta assistendo nel mondo hi-tech porta con sé indiscussi vantaggi e benefici, ma anche inevitabili rischi legati a un impiego malevolo degli algoritmi. Ne sono esempio concreto i deepfake e tutti quei sistemi messi a punto con il solo scopo di alterare i contenuti. Un allarme lanciato in questi giorni anche dai rappresentanti del Congresso USA, affinché la questione venga discussa a livello istituzionale.

Sicurezza nazionale

Adam B. Schiff, Stephanie Murphy e Carlos Curbelo hanno sottoscritto una lettera inviata a Dan Coats, direttore della United States Intelligence Community, chiedendo di prendere in considerazione il problema e di attuarsi in modo da mettere in campo contromisure adeguate. Si parla di un rischio per la sicurezza nazionale e del pericolo che strumenti simili possano contribuire a creare disinformazione e misinformazione, alterando la percezione e l’orientamento dell’opinione pubblica.

Viene chiesta l’elaborazione su base periodica di un report in cui elencare casi di deepfake presunti o confermati, con particolare attenzione a quelli provenienti da altri territori. Ecco un estratto della missiva, riportato in forma tradotta. Tra le righe si legge dunque il timore di un’ennesima interferenza estera nella vita democratica del paese, come già avvenuto in occasione delle presidenziali 2016.

Le contraffazioni digitali iperrealistiche contenenti rappresentazioni convincenti degli individui, mentre fanno o dicono cose che non avrebbero mai fatto o detto, potrebbero essere sfruttate per mettere in atto ricatti o per fare misinformazione. Mentre la tecnologia legata ai deepfake diventa sempre più avanzata e accessibile, assume i connotati di una minaccia per il dibattito pubblico negli Stati Uniti e per la sicurezza nazionale.

Il fenomeno deepfake

Il termine è legato a una pratica attuata un paio d’anni fa su Reddit da un utente omonimo, che dopo aver sviluppato un’applicazione chiamata Fakeapp l’ha distribuita agli altri iscritti al canale. Il software permette a chiunque di appiccicare il volto di una persona sul corpo di un’altra, in modo parecchio convincente se si dispone di un materiale di qualità da cui partire nell’elaborazione. Ben presto la tecnologia è stata impiegata al fine di generare contenuti pornografici con protagonisti alcuni dei volti più noti di Hollywood, il che è valso il ban dei responsabili dalla community. Ciò nonostante, il progetto non si è fermato e continua a evolvere, portato avanti da appassionati e contributori volontari.

Le iniziative messe in campo al fine di contrastarne i potenziali effetti negativi non mancano: laboratori di ricerca, startup e agenzie governative stanno già sperimentando diversi metodi al fine di identificare ed etichettare i deepfake, basandosi sull’analisi dei contenuti alla ricerca di informazioni che possano svelarne la natura ingannevole come pattern irregolare nei movimenti degli occhi o porzioni di pelle del viso riprodotte in modo non realistico. Ad ogni modo, inevitabilmente un avanzamento dei sistemi delegati a intercettare i contenuti alterati si accompagnerà un perfezionamento di quelli che li generano.

Qui sotto un filmato che vede protagonista l’ex presidente Obama, con un titolo che potrebbe accompagnare la sua diffusione sui social network alla ricerca di facili like o condivisioni (“Non crederete a ciò che Obama dice in questo video!”), dando così il via alla distribuzione di un filmato alterato e in grado di associare a un individuo frasi realmente mai pronunciate.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
18 set 2018
Link copiato negli appunti