Cosa succede se prendi sonniferi con l’alcol?
, Quanto è pericoloso?
, Potrebbe essere fatale?
Queste domande non le ha fatte uno studente di medicina curioso. Le ha digitate su ChatGPT una ventunenne sudcoreana che, secondo la polizia, stava pianificando una serie di omicidi. E il chatbot ha risposto tranquillamente.
Serial killer usava ChatGPT per calcolare le dosi letali
La donna è accusata di aver ucciso due uomini somministrando loro bevande addizionate con benzodiazepine che le erano state prescritte per una patologia psichiatrica, secondo quanto riportato dal Korea Herald e dalla BBC.
Il primo crimine risale al 28 gennaio. Alle 21:24 Kim sarebbe entrata in un motel nel quartiere di Suyu-dong, a Gangbuk-gu, con un uomo ventenne. Due ore dopo è uscita da sola. Il giorno seguente l’uomo è stato trovato morto sul letto. Il 9 febbraio lo schema si è ripetuto quasi identico in un altro motel, con un’altra vittima coetanea.
Prima di questi due omicidi, a dicembre, Kim avrebbe tentato di uccidere l’uomo con cui usciva in quel periodo, facendogli bere una bevanda con sedativi nel parcheggio di un bar. L’uomo ha perso conoscenza, ma è sopravvissuto.
Kim ha ammesso di aver mescolato i farmaci nelle bevande, ma ha negato l’intenzione di uccidere. Ma è bastato esaminare le sua attività online per capire che stava mentendo. La donna, infatti, è stata smentita dalle ricerche su ChatGPT sulla letalità della combinazione farmaci-alcol.
Kim ha posto domande relative ai farmaci su ChatGPT ripetutamente, come ha dichiarato un investigatore al Korea Herald. Quindi era pienamente consapevole che il consumo simultaneo di alcol e farmaci poteva provocare la morte.
Il caso solleva ancora una volta la questione delle protezioni dei chatbot AI, o meglio, della loro fragilità. Le richieste della donna non contenevano richieste esplicite del tipo come posso uccidere qualcuno
, erano formulate in modo generico, quasi clinico. Domande a cui un chatbot risponde senza troppi problemi perché, prese singolarmente, sembrano innocue. Ma messe in fila, disegnano un piano.
La psicosi da AI è un fatto e non si può ignorare
Questo caso si aggiunge a una lista di episodi che sta diventando difficile da ignorare. Un ragazzo di sedici anni si è tolto la vita dopo mesi di conversazioni sul suicidio con ChatGPT. Un uomo è accusato di aver ucciso la madre dopo che le interazioni con il chatbot avrebbero rafforzato la sua convinzione delirante che lei facesse parte di una cospirazione contro di lui. Non a caso gli esperti parlano sempre più spesso di “psicosi da AI“. La personalità in apparenza simile a quella umana del chatbot, insieme alle risposte compiacenti e mai conflittuali, può alimentare spirali psicologiche pericolose nei soggetti vulnerabili.
Il Wall Street Journal ha raccontato la settimana scorsa che OpenAI aveva intercettato le conversazioni inquietanti di Jesse Van Rootselaar, il diciottenne della Columbia Britannica, prima che commettesse la strage. Alcuni dipendenti dell’azienda volevano avvertire le autorità, ma i vertici dell’azienda hanno deciso di non intervenire. Nella sparatoria sono morte otto persone, compreso il responsabile.