OpenAI scopre otto usi vietati di ChatGPT

OpenAI scopre otto usi vietati di ChatGPT

OpenAI ha pubblicato un report che descrive in dettaglio otto usi illeciti di ChatGPT per attività di sorveglianza, campagne di influenza e truffe.
OpenAI scopre otto usi vietati di ChatGPT
OpenAI ha pubblicato un report che descrive in dettaglio otto usi illeciti di ChatGPT per attività di sorveglianza, campagne di influenza e truffe.

Le tecnologie di intelligenza artificiale sviluppate da OpenAI sono sfruttate principalmente per compiti leciti. L’azienda californiana ha pubblicato un nuovo report che descrive otto usi vietati dei modelli AI e di ChatGPT da parte di cybercriminali a scopo di spionaggio, truffe e manipolazione delle informazioni.

Azioni di OpenAI per bloccare gli usi vietati

Il primo caso scoperto da OpenAI è descritto in un articolo dedicato. Ignoti cybercriminali cinesi hanno avviato una campagna, denominata Peer Review, che prevede lo sviluppo di un tool per la sorveglianza. Usando ChatGPT hanno generato la descrizione di un tool in grado di raccogliere informazioni in tempo reale su post anti-Cina pubblicati sui social media occidentali.

Il chatbot è stato inoltre sfruttato per il debugging del codice che implementa il tool basato su modelli di altre aziende (probabilmente Llama di Meta). I risultati ottenuti sono stati inviati alle autorità cinese, quasi certamente per scoprire dissidenti e oppositori politici. OpenAI ha individuato e chiuso gli account usati da vari cybercriminali.

Il secondo caso riguarda una truffa molto utilizzata per rubare dati e criptovalute. Ignoti cybercriminali (probabilmente nordcoreani) hanno usato ChatGPT per generare falsi annunci di lavoro pubblicati su LinkedIn e altri social network. I modelli di OpenAI sono stati utilizzati anche per ottenere risposte plausibili a domande tecniche in modo da simulare un colloquio di lavoro. L’azienda californiana ha identificato e chiuso dozzine di account.

OpenAI ha inoltre scoperto una campagna di influenza, denominata Sponsored Discontent. Cybercriminali cinesi hanno usato ChatGPT per scrivere falsi articoli in inglese e spagnolo che criticano dissidenti cinesi o la politica estera degli Stati Uniti.

ChatGPT è stato inoltre utilizzato per generare falsi contenuti da pubblicare sui social media o inviare tramite app di messaggistica con lo scopo di instaurare un rapporto confidenziale o convincere le vittime ad investire somme di denaro. Si tratta delle classiche truffe romantiche o pig butchering.

Il chatbot di OpenAI è stato anche sfruttato per campagne di influenza pro-Palestina, pro-Iran e pro-Hamas. I falsi contenuti sono stati pubblicati sui social media da cybercriminali iraniani. Una simile campagna è stata avviata in Ghana prima delle elezioni per supportare uno dei candidati.

Cybercriminali nordcoreani hanno usato ChatGPT per cercare vulnerabilità software, generare codice e scrivere email di phishing da utilizzare durante vari attacchi informatici. Infine, il chatbot è stato usato per un’altra truffa con falsi annunci di lavoro in Cambogia. Tutti gli account sono stati eliminati.

Fonte: OpenAI
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
24 feb 2025
Link copiato negli appunti