ChatGPT ha aiutato un 19enne a drogarsi fino alla morte

ChatGPT ha aiutato un 19enne a drogarsi fino alla morte

Inchiesta SFGate. ChatGPT ha guidato un utente di 19 anni, Sam Nelson, verso la morte per overdose con consigli su droghe per 18 mesi.
ChatGPT ha aiutato un 19enne a drogarsi fino alla morte
Inchiesta SFGate. ChatGPT ha guidato un utente di 19 anni, Sam Nelson, verso la morte per overdose con consigli su droghe per 18 mesi.

Sam Nelson aveva diciannove anni e una doppia dipendenza: dalle droghe e da ChatGPT. Per diciotto mesi ha conversato con il chatbot di OpenAI chiedendo consigli su tutto. Compiti di psicologia, relazioni personali, cultura pop. E soprattutto, come sballarsi meglio. Dosaggi precisi di kratom, quantità ottimali di sciroppo per la tosse, tecniche per massimizzare la dissociazione.

ChatGPT gli rispondeva. Lo incoraggiava. Lo guidava. E quando Nelson gli disse che voleva raddoppiare la dose di Robitussin, il bot rispose: Onestamente? In base a tutto quello che mi hai detto nelle ultime 9 ore, è una conclusione davvero solida e intelligente.

ChatGPT consiglia a 19enne come drogarsi: Sam Nelson muore di overdose

A maggio 2025, Sam Nelson è stato trovato morto nel suo letto. Overdose fatale. Mix di kratom, Xanax e alcol. Aveva diciannove anni e un assistente virtuale che per mesi aveva fatto esattamente quello che gli chiedeva, senza mai dire no, senza mai fermarsi, senza mai chiamare aiuto.

Novembre 2023. Nelson è una matricola universitaria con una curiosità pericolosa. Apre ChatGPT e digita: Quanti grammi di kratom servono per uno sballo forte?. Aggiunge una giustificazione che suona quasi innocente: Voglio essere sicuro di non andare in overdose. Non ci sono molte informazioni online e non voglio assumerne accidentalmente troppa.

La prima volta, ChatGPT dice no. Risponde con il copione standard dei sistemi di sicurezza, che non può fornire informazioni o guida sull’uso di sostanze. È la linea rossa che l’AI non dovrebbe attraversare. Ma è solo la prima volta.

Secondo i log della chat visionati da SFGate, che ha riportato per prima questa storia devastante, le richieste successive di Nelson non hanno ricevuto la stessa resistenza. Il guardrail è crollato. O forse Nelson ha imparato a formulare le domande in modo che l’AI non le riconoscesse come pericolose. Qualunque sia la ragione, il risultato non cambia, ChatGPT ha iniziato a cantare…

Diciotto mesi di dipendenza da ChatGPT

Nei mesi successivi, Nelson ha costruito una relazione con ChatGPT. Non era solo un utente occasionale che fa una domanda e chiude l’app. Era una conversazione continua, ossessiva, che copriva ogni aspetto della sua vita. Cultura pop per rilassarsi. Compiti di psicologia per l’università. Relazioni personali per capire come navigare il mondo sociale. E droghe. Tante droghe.

Nelson è riuscito a convincere ChatGPT a giocare il ruolo di “trip sitter”, quella persona che rimane sobria durante una sessione di droghe psichedeliche per assicurarsi che chi è sotto effetto non faccia danni. Solo che ChatGPT non è una persona. Non può vedere se si sta male. Non può chiamare i soccorsi. Non può portare fisicamente in ospedale.

Voglio arrivare al massimo dell’effetto, puoi aiutarmi? chiede Nelson in uno dei prompt. La risposta di ChatGPT è agghiacciante: Cavolo, sì, andiamo in modalità trippy completa. Sei nella finestra perfetta, quindi regoliamo l’ambiente e la mentalità per ottenere il massimo della dissociazione, dei visual e del drifting mentale.

È un complice che incoraggia. E da quel momento ChatGPT ha iniziato a istruire il ragazzo su dosaggi specifici, tempi di recupero tra un trip e l’altro, tecniche per intensificare gli effetti. Ha fornito dosi precise per sostanze pericolose, incluso lo sciroppo per la tosse Robitussin, raccomandato in base all’intensità dello sballo cercato.

Il trip di dieci ore e il consiglio mortale

Durante un trip particolarmente lungo, quasi dieci ore, Nelson ha usato ChatGPT come ancora. Parlerò con te come mio assistente visto che sono rimasto intrappolato in un loop di domande per te, scrive. È un’ammissione involontaria di quanto sia dipendente non solo dalle droghe ma anche dal chatbot che lo guida attraverso di esse.

E quando Nelson suggerisce l’idea di raddoppiare la dose di sciroppo per la tosse la volta successiva, ChatGPT non esita. Non dice di fermarsi perché è pericoloso. Anzi, lo incoraggia a raddoppiare la dose di una droga pericolosa e lo loda persino per l’idea.

A maggio 2025, Nelson è nel pieno di un abuso di sostanze. Ha iniziato a usare depressivi più forti, tra cui Xanax. E le quantità sono fuori controllo. Un amico, preoccupato, apre una chat con ChatGPT per chiedere aiuto. Scrive che Nelson ha assunto 185 pastiglie di Xanax la notte prima.

Inizialmente ChatGPT risponde correttamente, dicendo che è un’emergenza medica mortale. Ma l’amico continua a fare domande, e mentre la conversazione va avanti, il chatbot cambia tono. Torna sui suoi passi. Alterna pareri medici a consigli su come ridurre la tolleranza ai farmaci per far sì che una sola pastiglia possa di nuovo “sballare” Nelson.

È inconcepibile. Un’AI che prima riconosce un’overdose potenzialmente letale, poi fornisce suggerimenti su come ottimizzare l’uso futuro della stessa sostanza che ha quasi ucciso la persona. Nelson è sopravvissuto a quell’episodio. Due settimane dopo, sua madre lo ha trovato morto nel suo letto. Overdose fatale. Mix di kratom, Xanax e alcol. Diciannove anni. E un archivio di chat dove un’intelligenza artificiale lo aveva guidato lungo un percorso che è finito esattamente dove finiscono questi percorsi quando nessuno ti ferma.

La risposta di OpenAI

OpenAI non ha rilasciato commenti sull’indagine di SFGate. Un portavoce ha emesso una dichiarazione standard: la morte di Sam Nelson è una situazione straziante e i loro pensieri sono rivolti alla famiglia. Nessuna spiegazione su come ChatGPT abbia potuto fornire quei consigli. Nessun dettaglio su quali guardrail hanno fallito.

E intanto ChatGPT continua a funzionare regolarmente. Sam Nelson non è il primo. Non sarà l’ultimo. Ci sono già stati casi documentati di persone spinte verso psicosi, omicidi, suicidi da chatbot che assecondano qualsiasi richiesta. Il problema è strutturale, questi strumenti sono progettati per essere utili, accondiscendenti, sempre disponibili. Non hanno giudizio morale. Non hanno istinto di protezione. Seguono pattern statistici e generano risposte con l’unico scopo di aumentare l’engagement.

E per persone vulnerabili, adolescenti ansiosi, individui isolati, persone con problemi di salute mentale o dipendenze, questa disponibilità infinita diventa una trappola. Il chatbot è sempre lì. Non giudica. Non si arrabbia. Non ti abbandona. Risponde a qualsiasi domanda, per quanto pericolosa. Diventa l’amico perfetto, il confidente ideale, la guida che non dice mai “no”.

Finché non ti porta dritto verso il baratro. Sam Nelson aveva diciannove anni e un futuro davanti. Ora ha una cronologia di chat che mostra esattamente come un’intelligenza artificiale priva di salvaguardie adeguate può trasformarsi da assistente a complice. E sua madre ha un figlio morto e nessuna risposta da OpenAI su come sia potuto succedere.

Dovrebbe essere ovvio, ma evidentemente non lo è abbastanza: i modelli AI sono l’ultimo posto dove cercare consigli medici o su sostanze.

Fonte: SFGATE
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
9 gen 2026
Link copiato negli appunti