Stephen Hawking condanna l'umanità

L'astrofisico britannico lancia l'ennesimo allarme sulla vocazione del genere umano all'autodistruzione, un evento con probabilità sempre maggiori di avverarsi. Superati i prossimi 100 anni, però, sopravvivremo nello spazio
L'astrofisico britannico lancia l'ennesimo allarme sulla vocazione del genere umano all'autodistruzione, un evento con probabilità sempre maggiori di avverarsi. Superati i prossimi 100 anni, però, sopravvivremo nello spazio

In una delle sue recenti sortite pubbliche nel corso del programma Reith Lectures in onda nei prossimi giorni su BBC4, Stephen Hawking è ancora una volta tornato sul rischio che l’evoluzione tecnologica costituisce per la sopravvivenza a lungo termine del genere umano. Un rischio che cresce col passare del tempo, ma che superata una certa soglia dovrebbe svanire in contemporanea alla dispersione dell’homo sapiens tra i pianeti e le stelle esterne.

La probabilità di un disastro “terminale” in grado di distruggere (o magari sterilizzare in via definitiva) il pianeta Terra è minima, ha spiegato Hawking , ma più passa il tempo e più quella probabilità cresce: nei prossimi 1.000 o 10.000 anni, la probabilità si trasformerà in quasi-certezza e a quel punto tanti saluti all’umanità.

Tra le possibili cause dell’estinzione umana Hawking cita una guerra nucleare – eventualità mai “estintasi” completamente dopo la Guerra Fredda e ora più contemporanea che mai – gli effetti incontrollabili del riscaldamento globale oppure un virus geneticamente mutato con un livello di mortalità da far impallidire la storica epidemia di Spagnola.

Ma il professore britannico si definisce in ogni caso un “ottimista”, anche se a tempo limitato: l’uomo ha oggi una “finestra” di 100 anni che deve sfruttare per installare colonie sugli altri pianeti, ribadisce Hawking, così da sopravvivere nel suo viaggio nel cosmo anche in caso di cataclisma terminale sul pianeta madre.

Stephen Hawking è un genio con quoziente intellettivo di 160, ha rivoluzionato (e vuol continuare a rivoluzionare) l’astrofisica e la conoscenza umana dell’universo ma è evidentemente concentrato scenari apocalittici già da parecchi anni: i primi allarmi pubblici del professore sulla fine del mondo (o dell’uomo) risalgono al 2006 , mentre le sue posizioni sui rischi connessi alla ricerca di vita extraterrestre o allo sviluppo dell’ intelligenza artificiale sono oramai noti.

Non a caso Hawking si è recentemente guadagnato – assieme tra gli altri a Elon Musk, esplicito nel diffidare della IA troppo cresciuta – un ammonimento da parte di Information Technology and Innovation Foundation (ITIF), un’organizzazione che accusa i succitati luminari di alimentare, con le loro dichiarazioni allarmistiche, il luddismo del pubblico facilmente impressionabile e, quel che è peggio, dei politici nelle cui mani risiedono le chiavi per i finanziamenti della ricerca scientifica. Sulla IA e non.

Alfonso Maruccia

Link copiato negli appunti

Ti potrebbe interessare

21 01 2016
Link copiato negli appunti