OpenAI blocca account legati a strumenti di sorveglianza cinesi

OpenAI blocca account legati a strumenti di sorveglianza cinesi

OpenAI ha bandito alcuni account che usavano ChatGPT per sviluppare strumenti di sorveglianza per scovare le proteste anti-Cina in Occidente.
OpenAI blocca account legati a strumenti di sorveglianza cinesi
OpenAI ha bandito alcuni account che usavano ChatGPT per sviluppare strumenti di sorveglianza per scovare le proteste anti-Cina in Occidente.

OpenAI ha deciso di chiudere i rubinetti a chi sfrutta la sua tecnologia per scopi poco nobili. Sotto la lente d’ingrandimento sono finiti alcuni account associati a un software di sorveglianza made in Cina.

Il loro crimine? Aver usato ChatGPT per creare pitch di vendita e debuggare codice per un assistente AI con un compito ben preciso: raccogliere dati in tempo reale sulle proteste anti-Cina in paesi occidentali come Stati Uniti e Regno Unito.

OpenAI mette al bando gli account legati a strumenti di sorveglianza cinesi

A lanciare l’allarme è stato Ben Nuimmo, investigatore capo di OpenAI. Secondo lui, questo episodio getta una luce inquietante su come regimi autoritari possano piegare tecnologie made in USA per colpire proprio gli Stati Uniti e i loro alleati. Insomma, il rovescio della medaglia di un’AI democratica e accessibile a tutti.

Dalle indagini di OpenAI è emerso che il software incriminato si chiamerebbe “Qianyue Overseas Public Opinion AI Assistant“. Non è chiaro se sia stato effettivamente dispiegato, ma una cosa è certa: oltre a ChatGPT, gli account sotto accusa avrebbero fatto riferimento anche ad altri tool AI, tra cui una versione di Llama, il modello open-source sviluppato da Meta.

A quanto pare, Qianyue era stato progettato per identificare conversazioni e thread sui social media occidentali (da X a Facebook, passando per Instagram) riguardanti i diritti umani in Cina e altri temi scottanti. L’obiettivo? Inviare report di sorveglianza alle autorità cinesi, agli agenti di intelligence e al personale delle ambasciate del Dragone.

Non è la prima volta che OpenAI mette in guardia il governo USA sui rischi di un’AI fuori controllo. Soprattutto dopo che DeepSeek ha fatto tremare i mercati americani con il suo modello di ragionamento R1, surclassando molti altri modelli a stelle e strisce. OpenAI ha accusato DeepSeek di distillare l’output dei suoi modelli e ha paventato il rischio che aziende cinesi possano rubare dati proprietari alle compagnie statunitensi.

Regole di buon senso per un’AI democratica

Nella sua policy, OpenAI è chiara: l’uso di tool AI da parte di regimi autoritari per accumulare potere e controllare i cittadini è off-limits. Così come lo sono attività quali operazioni di influenza segreta, sfruttamento di minori, truffe, spam e attività cyber malevole. Perché un’AI a beneficio del maggior numero possibile di persone passa anche da regole di buon senso per proteggere le persone da danni reali.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
21 feb 2025
Link copiato negli appunti