Non siamo abbastanza intelligenti per accogliere l'IA

Non siamo abbastanza intelligenti per accogliere l'IA

Le distopie contro l'Intelligenza Artificiale si trasformino in sforzo evoluzionistico, investendo in cultura, formazione e giovani leve.
Non siamo abbastanza intelligenti per accogliere l'IA
Le distopie contro l'Intelligenza Artificiale si trasformino in sforzo evoluzionistico, investendo in cultura, formazione e giovani leve.

Partiamo da un assunto base, dal quale non è possibile transigere poiché va considerato come assioma del nostro ragionamento: l’Intelligenza Artificiale è uno strumento. L’IA è qualcosa che potenzia, che velocizza o che coadiuva l’opera umana, ma ne è sempre e comunque sottoposta. Se non partissimo da questa considerazione, infatti, saremmo ormai già stabilmente in una dimensione differente nella quale l’IA ha avuto la meglio sull’uomo e probabilmente, a questo punto, già l’uomo sarebbe stato eliminato in quanto errore del sistema – ma è questo l’habitat delle distopie.

Contro le distopie

Se l’IA è qui per rimanere ed imporsi, prima ancora di chiedersi se potrà avere effetti devastanti come qualcuno tende a far ipotizzare, varrebbe la pena ribaltare la domanda per chiedersi: siamo abbastanza intelligenti per accogliere l’IA? Perché il rischio è che passeremo il prossimo decennio a chiederci quanto sia stupida l’IA, ma facendo ciò non faremo altro che perdere altro tempo utile per allontanare il giorno in cui l’IA diventerà un pericolo. Il bilanciamento tra potere e controllo, infatti, sarà in gran parte smosso dal gap di intelligenza tra l’uomo e la macchina.

Nei giorni scorsi ha fatto notizia il servizio Life2Vec, secondo il quale le probabilità di morte entro una “data limite” sarebbero migliorate dell’11% rispetto ai modelli del passato. Insomma: conoscendo alcuni dati del paziente diverrebbe molto più semplice prevederne la data di morte. Se tutto ciò fosse confermato – e adottato su larga scala – la cosa avrebbe effetti devastanti e tutto ciò per un semplice motivo: gli attuali modelli organizzativi e sociali sono basati su una naturale imprevedibilità, conditi da un’ampia marginalità di incognite e partoriti sul caos apparente dovuto all’impossibilità generale di mettere insieme i dati e unire i puntini.

Se strumenti come Life2Vec dimostrassero la propria affidabilità e venissero ampiamente utilizzati, le conseguenze sarebbero di vario tipo e facilmente prevedibili:

  • chi investirebbe in servizi pensionistici, se la previsione di morte fosse antecedente all’età pensionabile? Nell’ottica del tradizionale patto generazionale, inoltre, ogni sistema pensionistico verrebbe meno nel giro di breve
  • la condivisione del rischio tra utenti e assicurazioni sarebbe basata su dati nuovi, che andrebbero utilizzati in modo trasparente tra le parti per evitare uno sbilanciamento informativo che condizionerebbe l’investimento
  • la motivazione allo studio e al lavoro, nonché ad ogni ragionamento finanziario di lungo periodo, sarebbe pesantemente vincolato alla nuova consapevolezza

Life2Vec, tuttavia, è soltanto una delle applicazioni possibili e, in realtà, occorre immaginare un mondo nel quale non solo non si potrà vietare l’uso dell’IA, ma occorre pensarla come ad uno strumento sottile e pervasivo, tale da deviare ogni singolo processo in modo “intelligente”. A questo punto la palla torna nel nostro campo: siamo sufficientemente addestrati per interagire con un’intelligenza addestrata su di noi? Ne abbiamo le competenze, la profondità morale, lo spessore etico e la capacità di adattamento necessari?

Una cosa è certa: l’IA è qui per rimanere. Si imporrà, probabilmente con effetti meno entusiasmanti e meno devastanti di quanto l’hype non tratteggi, nel giro di un decennio permeando ogni ambito, creando nuovi lavori, eliminandone altri – nulla di nuovo, nulla che non accada dai tempi della rivoluzione industriale ad oggi. E non abbiamo bisogno di un neo-luddismo in chiave digitale, dovremmo essere almeno sufficientemente maturi da affrontare di petto questa sfida.

L’IA è una sfida utile

Ma questa sfida la si affronta non concentrandoci sull’AI (Artificial Intelligence), quanto sull’HU (Human Intelligence). I modelli scolastici, i tempi dell’apprendimento, le materie, gli argomenti, tutto va riletto alla luce di un genere umano che deve saper potenziare l’accesso generale alla cultura. E la cultura stessa andrà potenziata, sotto ogni profilo: inutile l’approccio binario a singhiozzo tra STEM e materie umanistiche, quando è chiaro come l’interdisciplinarità sia la chiave per far approdare il genere umano ad una nuova dimensione.

L’IA è un rischio che forse serviva. Serviva per spronare l’essere umano a riflettere su sé stesso, sul proprio rapporto con la Terra dopo averne raggiunti i limiti, sul rapporto con la tecnologia dopo averne abusato spesso senza vere contingenze con l’utilità. L’IA è un’occasione d’oro per non sentirci – una volta tanto – essere superiori che prevalgono per legge naturale, ma rischio potenziale per noi stessi e quindi costretti a maturare una nuova filosofia dell’essere.

Di questo abbiamo bisogno: di nuovi matematici e nuovi letterati, di nuovi filosofi e di nuovi fisici teorici. Di una nuova generazione del sapere. Ne nascerà una nuova musica per un nuovo mondo, dove l’IA sarà pilotata da computer quantistici e dove anche queste righe saranno lette con uno sbuffo come un residuo di un decadente Medioevo. Ognuno si senta investito della colpa, o dell’orgoglio, di ciò che verrà dopo di noi.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il 3 gen 2024
Link copiato negli appunti