L'Intelligenza Artificiale è nulla senza trasparenza

Un articolo su Nature critica il metodo con cui Google ha proposto la lettura delle mammografie con l'IA: alto potenziale, ma senza peer-review.
Un articolo su Nature critica il metodo con cui Google ha proposto la lettura delle mammografie con l'IA: alto potenziale, ma senza peer-review.

Si tratta innegabilmente di un momento complesso per il mondo della scienza per molti motivi, anche e soprattutto interni. Il metodo scientifico è stato più volte messo “sotto stress” da una pandemia che ha generato incomprensioni, tensioni e frizioni dovute alla necessità di risultati rapidi al cospetto di metodi che rapidi non possono essere. Nei mesi in cui ci si trova a sentire proclami quotidiani sui vaccini in arrivo, una nuova critica piove sul capo degli algoritmi di IA che Google vorrebbe proporre per la lettura delle mammografie.

L’IA sia trasparente

L’accusa non è relativa al metodo in sé, considerato anzi affascinante e potenzialmente utile, quando al modo in cui è stato presentato e proposto. La critica mossa è relativa al fatto che la proposta di Google non è riproducibile e la Scienza non può dunque farla propria: non può lavorarci su, non può validarne l’efficacia, non può utilizzare studi che possano ottimizzarne l’efficacia.

Google da parte sua si difende spiegando che alcuni aspetti non possano essere “aperti” alla scienza in virtù di esigenze particolari, ad esempio per tutelare proprietà intellettuali e tecnologie proprie del gruppo. Ciò però crea un problema che, oltre ad essere ovviamente molto pratico, è anche un problema di principio: se la scienza non può riprodurre un metodo ed un risultato, allora non può validare un percorso né farlo proprio. Può accettarlo, come artefatto a sé, ma non può considerarlo parte di un metodo scientifico e di una conoscenza condivisa.

L’articolo, pubblicato su Nature, spiega che le motivazioni addotte da Google siano di per se stesse accettabili, ma al tempo stesso considera sbagliato l’approccio tenuto da Mountain View: se un processo non può essere reso accessibile, occorre almeno ideare sistemi che consentano agli scienziati di analizzare e verificare, “consentendo la peer-review degli studi e delle loro evidenze“. La riproducibilità era e deve rimanere un dogma: l’appello è firmato da oltre venti ricercatori e l’esempio di Google è soltanto una case history utile al vaglio di un problema ben più generale e ampio.

Le speranze riposte nell’IA in campo medico sono estremamente alte. Nel caso specifico Google vanta un metodo in grado di leggere le mammografie con una maggior capacità rispetto all’occhio ed alla perizia umana, riducendo i falsi positivi ed aumentando le capacità diagnostiche generali. Per poter rendere strutturali tali potenzialità, però, l’IA deve poter essere vagliata e fatta propria dalla scienza, così come Galileo Galilei ha insegnato al mondo secoli or sono. Di fronte all’Intelligenza Artificiale i principi di Galileo sono più solidi che mai e la scienza ha bisogno di dimostrare a sé stessa di poter far fronte anche a questa importante evoluzione.

Fonte: Nature
Link copiato negli appunti

Ti potrebbe interessare

15 10 2020
Link copiato negli appunti