Perché le AI a volte scrivono assurdità sconcertanti?

Perché le AI a volte scrivono assurdità sconcertanti?

Uno studio rivela perché le AI come ChatGPT e Copilot possono generare affermazioni assurde con disinvoltura e un'incredibile sicurezza.
Perché le AI a volte scrivono assurdità sconcertanti?
Uno studio rivela perché le AI come ChatGPT e Copilot possono generare affermazioni assurde con disinvoltura e un'incredibile sicurezza.

Molti utenti che hanno interagito con chatbot come ChatGPT o suoi concorrenti, hanno sperimentato momenti di disagio e confusione. Capita, infatti, che questi sistemi di intelligenza artificiale producano affermazioni illogiche, false o prive di senso compiuto, esponendole però con sicurezza e naturalezza.

Anthony Chemero, professore di filosofia e psicologia presso l’Università di Cincinnati, ha analizzato approfonditamente questo fenomeno che gli addetti ai lavori definiscono “allucinazione“. Lo studio è stato pubblicato sulla rivista scientifica Nature Human Behaviour.

Secondo Chemero, il problema deriva dal processo di addestramento dell’AI. Durante la fase di apprendimento, il modello linguistico analizza una grande mole di testi scritti dall’uomo, imparando le potenziali associazioni tra parole e frasi, ma senza una reale comprensione del significato. Da ciò deriva la capacità di generare un output complesso e plausibile, che però può risultare privo di senso logico.

L’AI non capisce veramente ciò che dice

Chemero sottolinea come questi sistemi di intelligenza artificiale conversazionale si basino su enormi dataset di testi provenienti da internet. Tali dati sono inevitabilmente influenzati da pregiudizi e opinioni soggettive delle persone che li hanno generati.

Come spiega l’esperto: “I modelli linguistici di grandi dimensioni (LLM) creano testi impressionanti, ma spesso li inventano dal nulla. Imparano a produrre frasi grammaticalmente corrette, ma hanno bisogno di molto più addestramento degli esseri umani. In realtà non comprendono davvero il significato di ciò che dicono“.

In molti casi, sottolinea l’autore, l’utente non cerca nemmeno di indurre l’AI a dire “cose offensive, razziste, sessiste o altro“. Ciò avviene perché queste macchine non possiedono una vera intelligenza. Gli esseri umani sono esseri incarnati, che vivono in costante relazione con altre persone, ambienti materiali e culturali. “È per questo che ci preoccupiamo della nostra sopravvivenza e del mondo in cui viviamo“, osserva l’esperto.

Al contrario, ChatGPT e simili non hanno istinto di conservazioneinibizioni. Non comprendono davvero ciò che producono né le conseguenze. Il loro unico scopo è di combinare parole e frasi in modo plausibile dal punto di vista logico-grammaticale. Questa mancanza di comprensione profonda fa sì che questi sistemi cadano facilmente in assurdità e affermazioni illogiche. Le AI miglioreranno col tempo, ma difficilmente si libereranno completamente da questa falla insita nella loro natura.

Il parere del regista James Cameron

Anche il regista James Cameron è intervenuto sull’argomento. In un’intervista, ha dichiarato di essere molto scettico sull’uso dell’AI per scrivere sceneggiature: “Non credo che uno spirito disincarnato che ripete ciò che altri spiriti incarnati hanno detto – sulla vita che hanno avuto, sull’amore, sulla menzogna, sulla paura, sulla mortalità – mescoli tutto in un’insalata di parole e poi lo rigurgiti. Non riesco a immaginare che questo possa commuovere il pubblico“.

Il regista ha persino scherzato sul fatto che se tra 20 anni un’intelligenza artificiale vincerà l’Oscar per la migliore sceneggiatura, dovrà ritirarsi.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
4 mar 2024
Link copiato negli appunti