Molti utenti che hanno interagito con chatbot come ChatGPT o suoi concorrenti, hanno sperimentato momenti di disagio e confusione. Capita, infatti, che questi sistemi di intelligenza artificiale producano affermazioni illogiche, false o prive di senso compiuto, esponendole però con sicurezza e naturalezza.
Anthony Chemero, professore di filosofia e psicologia presso l’Università di Cincinnati, ha analizzato approfonditamente questo fenomeno che gli addetti ai lavori definiscono “allucinazione“. Lo studio è stato pubblicato sulla rivista scientifica Nature Human Behaviour.
Secondo Chemero, il problema deriva dal processo di addestramento dell’AI. Durante la fase di apprendimento, il modello linguistico analizza una grande mole di testi scritti dall’uomo, imparando le potenziali associazioni tra parole e frasi, ma senza una reale comprensione del significato. Da ciò deriva la capacità di generare un output complesso e plausibile, che però può risultare privo di senso logico.
L’AI non capisce veramente ciò che dice
Chemero sottolinea come questi sistemi di intelligenza artificiale conversazionale si basino su enormi dataset di testi provenienti da internet. Tali dati sono inevitabilmente influenzati da pregiudizi e opinioni soggettive delle persone che li hanno generati.
Come spiega l’esperto: “I modelli linguistici di grandi dimensioni (LLM) creano testi impressionanti, ma spesso li inventano dal nulla. Imparano a produrre frasi grammaticalmente corrette, ma hanno bisogno di molto più addestramento degli esseri umani. In realtà non comprendono davvero il significato di ciò che dicono“.
In molti casi, sottolinea l’autore, l’utente non cerca nemmeno di indurre l’AI a dire “cose offensive, razziste, sessiste o altro“. Ciò avviene perché queste macchine non possiedono una vera intelligenza. Gli esseri umani sono esseri incarnati, che vivono in costante relazione con altre persone, ambienti materiali e culturali. “È per questo che ci preoccupiamo della nostra sopravvivenza e del mondo in cui viviamo“, osserva l’esperto.
Al contrario, ChatGPT e simili non hanno istinto di conservazione né inibizioni. Non comprendono davvero ciò che producono né le conseguenze. Il loro unico scopo è di combinare parole e frasi in modo plausibile dal punto di vista logico-grammaticale. Questa mancanza di comprensione profonda fa sì che questi sistemi cadano facilmente in assurdità e affermazioni illogiche. Le AI miglioreranno col tempo, ma difficilmente si libereranno completamente da questa falla insita nella loro natura.
Il parere del regista James Cameron
Anche il regista James Cameron è intervenuto sull’argomento. In un’intervista, ha dichiarato di essere molto scettico sull’uso dell’AI per scrivere sceneggiature: “Non credo che uno spirito disincarnato che ripete ciò che altri spiriti incarnati hanno detto – sulla vita che hanno avuto, sull’amore, sulla menzogna, sulla paura, sulla mortalità – mescoli tutto in un’insalata di parole e poi lo rigurgiti. Non riesco a immaginare che questo possa commuovere il pubblico“.
Il regista ha persino scherzato sul fatto che se tra 20 anni un’intelligenza artificiale vincerà l’Oscar per la migliore sceneggiatura, dovrà ritirarsi.