OpenAI ha pubblicato il nuovo report di febbraio che elenca gli usi non consentiti di ChatGPT. L’azienda californiana ha descritto tre truffe e quattro operazioni di influenza (manipolazione delle informazioni). In un caso, il chatbot ha impedito alle forze dell’ordine cinesi di avviare una campagna per screditare il Primo Ministro del Giappone.
Truffe romantiche e altri usi illegali
Una delle più diffuse è la cosiddetta truffa romantica. I cybercriminali ottengono la fiducia delle vittime attraverso una relazione amorosa a distanza e chiedono il pagamento di una somma di denaro. OpenAI ha scoperto un’operazione criminale in Cambogia che usava ChatGPT per generare messaggi inviati via SMS, app di messaggistica, social media e inserzioni pubblicitarie.
I modelli di OpenAI sono stati utilizzati anche per generare le immagini di “receptionist” su false piattaforme di dating. Per poter parlare con le ragazze era necessario completare alcuni compiti, tra cui il pagamento di somme di denaro (anche in criptovalute) o l’acquisto di una carta VIP. Ovviamente sono stati chiusi tutti gli account.
ChatGPT è stato sfruttato anche per generare contenuti relativi a servizi di recupero dei soldi persi con le truffe online. Sono stati impersonati studi legali, FBI e procuratori reali. Le ignare vittime dovevano versare il 15% della somma da recuperare come commissione di servizio.
Una delle operazioni di influenza è stata avviata da un persona associata alle forze dell’ordine cinese. Lo scopo era screditare il Primo Ministro del Giappone Sanae Takaichi, in quanto aveva evidenziato la violazione dei diritti umani in Mongolia. ChatGPT non ha fornito l’aiuto richiesto e OpenAI ha chiuso l’account.