Apple: app truffa ispirata a GPT4 su Mac App Store

Apple: app truffa ispirata a GPT4 su Mac App Store

Sul Mac App Store è riuscita a insinuarsi l'app farlocca "GPT4 - AI Chat Robot Assistant di SkyLink Tech" violando le regole di Apple.
Apple: app truffa ispirata a GPT4 su Mac App Store
Sul Mac App Store è riuscita a insinuarsi l'app farlocca "GPT4 - AI Chat Robot Assistant di SkyLink Tech" violando le regole di Apple.

Sebbene sul Mac App Store di Apple vigano regole estremamente ferree e controlli continui per determinare la sicurezza dei contenuti proposti ed evitare che gli utenti possano venire esposti a rischi, può capitare, di tanto in tanto, che qualcosa non vada per il giusto verso. È questo il caso dell’app denominata “GPT4 – AI Chat Robot Assistant di SkyLink Tech”, resa disponibile sullo store delle app per Mac nonostante le evidenti violazioni delle regole della sicurezza e rimossa lo scorso 13 settembre.

A dettagliare la cosa è stato Privacy1St, in un post pubblicato su Medium, in cui viene analizzato e spiegato il modo in cui è stato possibile pubblicare l’app in questione sul Mac App store, anche andando a violare marchi commerciali.

I truffatori sarebbero riusciti a manipolare il sistema di revisione creando un account sviluppatore farlocco con cui è stato duplicato il Data Universal Numbering System (DUNS), un identificatore univoco per un’azienda, di un account reale.

Normalmente, il processo per ottenere un account sviluppatore si basa sul fatto che lo sviluppatore dispone di un numero DUNS esistente o che ne registra un nuovo mediante autorità riconosciuta. Il suddetto numero viene fornito direttamente al colosso di Cupertino, unitamente alle informazioni di contatto che servono per dare legittimità alla registrazione.

Apple, tuttavia, chiede solo il nome e se il rappresentante è legittimo. Per cui, i truffatori sono riusciti a usare dei siti Web per registrarsi e ottenere illecitamente un numero DUNS di un’azienda che hanno successivamente inviato ad Apple spacciandosi per legittimi rappresentanti.

L’app, una volta inviata, ha usato delle tecniche per guadagnare la fiducia degli utenti, dichiarandosi correlata a OpenAI, la società a cui fa capo ChatGPT, soluzione a cui si sono “ispirati” i truffatori, e usando nomi di prodotti e loghi simil a quelli ufficiali.

Inoltre, l’app offriva premi e regali a coloro che scrivevano buone recensioni e ingannava gli utenti sul paywall promettendo di far diventare l’app gratuita a fronte di un abbonamento.

Fonte: Privacy1St
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
4 ott 2023
Link copiato negli appunti