Marcel Bucher, professore di scienze botaniche all’Università di Colonia, ha usato ChatGPT Plus come assistente personale per il lavoro accademico per due anni. Bandi per finanziamenti, revisioni di pubblicazioni, lezioni, esami. Tutto salvato nelle chat. Poi un giorno ha disattivato il consenso ai dati per vedere cosa succedeva, ed è sparito tutto… La storia è finita su Nature, e ha provocato una pioggia di commenti sarcastici. La compassione, oggi, scarseggia.
Si fidava di ChatGPT per il lavoro, professore perde tutto
Bucher voleva semplicemente vedere cosa succedeva disattivando l’opzione di consenso ai dati di ChatGPT. Una curiosità legittima, dopotutto. Due anni di conversazioni, appunti, bozze, revisioni. Evaporati. Non è apparso alcun avviso
, ha scritto Bucher nell’editoriale per Nature. Non c’era l’opzione per annullare. Solo una pagina bianca.
OpenAI, dal canto suo, ha contestato questa versione sostenendo che fornisce una richiesta di conferma prima che un utente elimini permanentemente una chat. Chi sta mentendo? Difficile dirlo. Forse Bucher ha cliccato troppo velocemente senza leggere. Forse il popup non è apparso. Forse ChatGPT ha deciso di fare dispettoso quel giorno. Fatto sta che i dati oramai sono irrecuperabili.
ChatGPT è utile per certe cose, ma usarlo come archivio principale per il lavoro accademico, per di più senza fare un backup, è da pazzi. Bucher ha ammesso di sapere che il chatbot di OpenAI può produrre affermazioni apparentemente sicure, ma a volte errate, e sostiene di non aver mai paragonato la sua affidabilità all’accuratezza dei fatti. Tuttavia si era fidato della continuità e dell’apparente stabilità dell’area di lavoro. Ecco il problema, ChatGPT non è un sistema di archiviazione come Google Drive o Dropbox, è un chatbot.
L’AI inquina la scienza
La storia di Bucher è solo un sintomo di un problema più grande. Il mondo accademico è invaso da contenuti generati dall’AI che inquinano la letteratura scientifica. Le riviste scientifiche sono inondate da articoli prodotti dall’intelligenza artificiale, privi di fonti adeguate, scritti da nessuno e revisionati da modelli automatici. Il processo di peer review, un tempo pilastro della credibilità scientifica, è diventato uno spettacolo dell’orrore.
Tanto per essere chiari: non c’è alcuna prova che Bucher stesse cercando di spacciare contenuti AI ai suoi studenti o di pubblicare ricerche dubbie. Ma la sua sfortunata esperienza dovrebbe servire da monito.
OpenAI consiglia di fare il backup
Bucher ha accusato OpenAI di vendere abbonamenti a ChatGPT Plus senza garantire misure protettive basilari per evitare che anni di lavoro svaniscano in un istante. È un’accusa legittima. La risposta di OpenAI? Le chat non possono essere recuperate
dopo essere state eliminate. E poi, a scoppio ritardato, ha raccomandato agli utenti di fare backup personali per il lavoro professionale. Tante grazie.