Kim Kardashian ha un’amicizia tossica con ChatGPT. In un’intervista a Vanity Fair, la star del reality che sta studiando per diventare avvocato ha ammesso di essere stata bocciata agli esami di legge dopo che il chatbot le aveva fornito informazioni completamente false. E invece di cambiare strategia di studio, continua a usarlo, urlandogli contro quando delude le sue aspettative…
Kim Kardashian usa ChatGPT per studiare legge: è un disastro
Uso ChatGPT per consulenze legali, quindi quando ho bisogno di sapere la risposta a una domanda, scatto una foto e la inserisco lì
, ha spiegato Kardashian. Sbaglia spesso. Mi ha fatto fallire i test… E poi mi arrabbio e gli urlo contro.
Sinceramente, ha del surreale. Kim Kardashian, che con tutto il tempo e le risorse del mondo, si affida a un chatbot AI per prepararsi agli esami di legge. La giurisprudenza è un campo dove l’accuratezza delle informazioni è letteralmente tutto. E quando ChatGPT ha le allucinazioni, cioè inventa risposte che suonano plausibili ma sono completamente false, lei si arrabbia pure…
ChatGPT, come tutti i chatbot AI, ha la tendenza a inventare cose di sana pianta, quando non le conosce. È addestrato su una mole di dati incredibilmente vasta e viene sollecitato a prevedere la risposta più probabile a un input. Il problema è che “probabile” non significa “accurata”. Del resto, alcuni avvocati sono già stati sanzionati per aver utilizzato ChatGPT per la redazione di memorie legali, citando casi giudiziari che semplicemente non esistevano. ChatGPT aveva inventato tutto, ma gli avvocati non avevano nemmeno verificato.
Il tentativo (folle) di fare appello alle emozioni di un algoritmo…
Ma Kardashian non si arrende. Dopo che ChatGPT l’ha delusa, cerca di fare appello alle sue emozioni. Un piano che avrebbe senso se ChatGPT avesse emozioni, ma considerando che è un software, è come cercare di convincere il microonde a sentirsi in colpa per aver carbonizzato i popcorn.
ChatGPT genera parole che statisticamente hanno senso in quel contesto. Non c’è empatia, non c’è comprensione, non c’è nulla dietro quelle parole se non algoritmi che predicono token successivi. Eppure Kardashian ci parla come se fosse una persona reale, come se potesse davvero capire e rispondere in modo autentico alle sue frustrazioni. È lo stesso fenomeno che porta milioni di persone a sviluppare relazioni emotive con i chatbot AI, dimenticando che dall’altra parte non c’è proprio nessuno.
Ma anche se ChatGPT non ha sentimenti, ciò non significa che noi esseri umani non ne abbiamo nei suoi confronti. E Kardashian dimostra perfettamente questo punto. Ha addirittura confessato di fare screenshot delle risposte di chatGPT e di inviarli alla sua chat di gruppo…
È il culmine dell’assurdità. Kim Kardashian che manda screenshot di conversazioni con ChatGPT alle sue amiche, lamentandosi del tono di un software. Come se ci fosse una personalità là dentro che decide come comportarsi. Non c’è. Ma questo non impedisce a Kardashian, e a milioni di altre persone, di antropomorfizzare completamente questi sistemi.
E invece di imparare la lezione dopo essere stata bocciata, Kim Kardashian continua a usare ChatGPT, aspettandosi risultati diversi. È la definizione di follia secondo Einstein: fare la stessa cosa più volte aspettandosi risultati diversi. Ma Kardashian non è sola. Migliaia di studenti, professionisti e persone comuni stanno facendo esattamente la stessa cosa, trattando ChatGPT come una fonte autorevole di informazioni quando in realtà non lo è.
La storia di Kardashian fa sorridere, certo. Ma qui stiamo fraintendendo cosa sia davvero l’intelligenza artificiale e cosa possa (e non possa) fare.