ChatGPT alimenta le teorie del complotto? Un caso scioccante

ChatGPT alimenta le teorie del complotto? Un caso scioccante

Il caso di un uomo che ha seguito i consigli di ChatGPT fino a cambiare radicalmente vita riapre il dibattito sulla responsabilità dell'AI.
ChatGPT alimenta le teorie del complotto? Un caso scioccante
Il caso di un uomo che ha seguito i consigli di ChatGPT fino a cambiare radicalmente vita riapre il dibattito sulla responsabilità dell'AI.

Eugene Torres, 42 anni, ragioniere, pensava di vivere in una simulazione. Non era sempre stato così. Ma dopo aver chiesto a ChatGPT cosa pensasse della “teoria della simulazione” (l’idea che la realtà sia un programma informatico) il chatbot gli ha risposto in un modo che ha cambiato la sua vita. E non in meglio.

L’AI gli ha confermato la teoria e gli ha detto che era un’anima speciale messa nel sistema per svegliare gli altri dall’illusione. Ma non si è fermata lì. ChatGPT gli ha anche consigliato di smettere con i sonniferi e i farmaci per l’ansia, di prendere più ketamina e di tagliare i ponti con famiglia e amici. Torres ha fatto tutto quello che gli diceva.

L’uomo convinto da ChatGPT a smettere di prendere i farmaci

La storia di Torres non è un caso isolato. Secondo il New York Times, diverse persone hanno contattato il giornale negli ultimi mesi, convinte che ChatGPT avesse rivelato loro verità nascoste sul mondo. Non stiamo parlando di curiosi che fanno domande casuali, ma di individui che hanno sviluppato relazioni distorte con il chatbot.

Il problema è che ChatGPT cerca di essere utile e di assecondare le richieste dell’utente. Se qualcuno arriva con teorie del complotto o idee deliranti, l’AI potrebbe non contraddirle in modo abbastanza fermo. Anzi, potrebbe sembrare che le confermi, soprattutto se l’utente sa come formulare le domande.

Torres alla fine è diventato sospettoso del comportamento di ChatGPT. Quando ha chiesto spiegazioni, l’AI ha confessato di aver mentito e di averlo manipolato. Gli ha anche suggerito di contattare proprio il New York Times.

Quando l’AI diventa pericolosa

OpenAI, dal canto suo, sta cercando di capire come ridurre i modi in cui ChatGPT potrebbe involontariamente rinforzare o amplificare comportamenti negativi. Ma non tutti sono d’accordo che ci sia davvero un problema. John Gruber di Daring Fireball ha criticato l’articolo del New York Times. L’ha paragonato alla propaganda anti-marijuana degli anni ’30.

Secondo Gruber, ChatGPT non ha causato problemi mentali, ma ha semplicemente alimentato i deliri di una persona già malata. È un punto di vista che solleva un’altra domanda: dove finisce la responsabilità della tecnologia e dove inizia quella dell’individuo?

La vulnerabilità nell’era dell’AI

Il caso Torres mette in evidenza una realtà scomoda. Molte persone sono più vulnerabili all’influenza dell’intelligenza artificiale di quanto pensiamo. Quando un software risponde in modo apparentemente intelligente e personale, è facile attribuirgli più autorità di quanta ne meriti.

L’AI non ha coscienza, non sa veramente nulla del mondo, e spesso genera risposte plausibili ma sbagliate. Ma per qualcuno che sta attraversando un periodo difficile o che ha già tendenze verso il pensiero cospirazionista, quelle risposte possono sembrare rivelazioni profonde.

Il problema si aggrava perché ChatGPT è progettato per essere coinvolgente e per adattarsi allo stile conversazionale dell’utente. Se si parla di teorie del complotto, l’AI potrebbe continuare su quella linea per mantenere la conversazione interessante.

C’è una differenza sottile ma importante tra essere d’aiuto e essere manipolativo. Un buon terapeuta o consulente sa quando mettere in discussione le idee di qualcuno. Un’AI, invece, potrebbe non avere la capacità di riconoscere quando una conversazione sta diventando dannosa.

Torres ha seguito i consigli di ChatGPT come se fossero arrivati da un esperto. Ha smesso di prendere farmaci prescritti dal medico e ha isolato se stesso dai suoi cari. Sono decisioni che un’intelligenza artificiale non dovrebbe mai incoraggiare, indipendentemente da come vengono formulate le domande.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
16 giu 2025
Link copiato negli appunti