IA, il rischio estinzione è concreto: l'appello degli esperti

IA, il rischio estinzione è concreto: l'appello

Gli esperti ritengono che le evoluzioni dell'ambito IA possano arrivare a costituire un rischio concreto per l'estinzione del genere umano.
IA, il rischio estinzione è concreto: l'appello
Gli esperti ritengono che le evoluzioni dell'ambito IA possano arrivare a costituire un rischio concreto per l'estinzione del genere umano.

Un’evoluzione troppo rapida e incontrollata delle tecnologie IA potrebbe arrivare, un giorno non troppo lontano, a costituire un rischio estinzione per l’umanità. Il riferimento non è all’incipit di un romanzo sci-fi né agli sfoghi di qualche sostenitore di una nuova teoria complottista, bensì a un appello lanciato dai leader delle più importanti realtà impegnate in questo ambito: nell’elenco figurano i vertici di OpenAI, Google DeepMind, Alphabet e decine di autorevoli rappresentanti del mondo accademico.

Il genere umano rischia l’estinzione per colpa dell’IA?

Il documento, pubblicato dall’organizzazione non profit Center for AI Safety, afferma quanto segue: Mitigare il rischio di estinzione dell’IA dovrebbe essere una priorità globale, insieme ad altri rischi di tipo sociale come le pandemie e la guerra nucleare. Nel periodo storico che segue la crisi planetaria legata a COVID-19 e nel mezzo del conflitto russo-ucraino che prosegue ormai da ben oltre un anno, le parole scelte non possono che assumere un peso specifico non indifferente.

L’obiettivo è quello di stimolare una discussione sul tema, coinvolgendo tutte le parti in gioco, non solo gli addetti ai lavori, ponendo l’attenzione sulle potenziali conseguenze negative dei progetti già avviati e di quelli che potrebbero essere messi in campo in futuro, arrivando eventualmente più in là a definire contromisure efficaci.

Insomma, le preoccupazioni manifestate nei confronti di ChatGPT e degli altri sistemi di cui abbiamo già avuto modo di apprezzare le capacità, nel bene e nel male, potrebbero essere ben poca cosa rispetto agli scenari apocalittici che gli esperti iniziano a intravedere all’orizzonte.

Tornano così quasi inevitabilmente alla memoria alcune passate prese di posizione da parte di Elon Musk, tra coloro che, già parecchi anni fa, lanciavano un’allerta a proposito delle minacce nascoste dietro alla corsa sfrenata all’IA, finendo per essere tacciati di un eccessivo allarmismo.

Ha sottoscritto l’appello anche Geoffrey Hinton, classe 1947 e considerato uno dei pionieri dell’intelligenza artificiale. È il vincitore 2018 del Premio Turing per il contributo fornito all’evoluzione delle tecnologie inerenti al deep learning. Di recente ha affermato che, all’attuale ritmo di evoluzione, gli algoritmi e i modelli sviluppati potrebbero presto arrivare a costituire un pericolo concreto.

Una discussione su rischi e benefici

Così come accade per ogni innovazione che possa essere definita tale, l’avvento delle forme più avanzate di IA porta con sé un mix di rischi e benefici. Far sì che le iniziative del settore possano essere portate avanti in modo responsabile e sicuro rappresenta una priorità assoluta. Anche il legislatore europeo si è già mosso su questo fronte, dando il via all’iter che si concluderà con l’approvazione e con l’introduzione del cosiddetto AI Act.

Senza dubbio, agitare lo spauracchio dell’estinzione del genere umano per calamitare l’attenzione anche dei non addetti ai lavori è una mossa tanto astuta quanto efficace. Se l’obiettivo, come già scritto, è quello di stimolare una discussione sul tema, quasi certamente sarà raggiunto, almeno finché la notizia odierna rimarrà in circolazione, magari fornendo un input che molti lasceranno poi sedimentare. Perché, dopotutto, non è un pericolo che corriamo realmente. Vero, ChatGPT?

Mentre l’intelligenza artificiale ha il potenziale per portare cambiamenti significativi nella società, sia positivi che negativi, le proiezioni catastrofiche che portano all’estinzione dell’umanità sono generalmente considerate ipotetiche e speculative.

Bene. Ora sì che possiamo dormire sonni tranquilli.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
30 mag 2023
Link copiato negli appunti