ChatGPT è pericoloso: ecco quali sono i rischi

ChatGPT è pericoloso: ecco quali sono i rischi

L'ascesa di ChatGPT porta con sé, quasi inevitabilmente, potenzialità e rischi: ecco i principali pericoli individuati dai ricercatori.
L'ascesa di ChatGPT porta con sé, quasi inevitabilmente, potenzialità e rischi: ecco i principali pericoli individuati dai ricercatori.

Qual è il tema caldo dell’ambito hi-tech in questo inizio 2023? Senza alcun dubbio ChatGPT. Il chatbot di OpenAI, sebbene fino a oggi accessibile esclusivamente sotto forma di prototipo, ha già dimostrato enormi potenzialità. Come spesso accade con le innovazioni rese disponibili su larga scala, ai molti risvolti positivi legati al suo utilizzo se ne affiancano altri dalla valenza negativa. Insomma, il sistema porta inevitabilmente con sé dei rischi conseguenti al suo impiego, se condotto con finalità malevole.

I rischi connessi alla diffusione di ChatGPT

I ricercatori di Panda Security hanno individuato tre principali pericoli connessi all’ascesa di questa intelligenza artificiale. Non si tratta di ipotesi eccessivamente pessimistiche, né di scenari cronologicamente lontani, come abbiamo già avuto modo di scrivere più volte su queste pagine.

Il primo fa riferimento al phishing. Le abilità colloquiali di ChatGPT possono essere sfruttate per scrivere email e testi corretti e convincenti, privi degli errori ortografici o di sintassi che spesso emergono da campagne malevole di questo tipo, in primis poiché destinate a paesi dove si parla una lingua diversa rispetto a quella di chi le organizza.

C’è inoltre il rischio di assistere alla stesura di codice dannoso e di malware potenzialmente devastanti, in grado di aggirare i più comuni e diffusi sistemi di controllo per aiutare i cybercriminali a raggiungere i loro obiettivi.

Terzo e ultimo pericolo è quello legato alle pratiche di social engineering. Dopotutto, ponendo le giuste domande all’IA, si possono ottenere informazioni utili a confezionare un attacco mirato, anche di spear phishing, prendendo di mira una singola persona o uno specifico dipendente, per poi penetrare nei sistemi di un’intera organizzazione o azienda.

A questi si aggiunge, infine, la quasi inevitabile diffusione di siti mirror fasulli e di profili social fake attraverso i quali i malintenzionati si fingono OpenAI per spingere i meno attenti al download di eseguibili corrotti.

Il suggerimento è lo stesso di sempre: far riferimento esclusivamente alle risorse ufficiali (in questo caso openai.com) e innalzare il livello di attenzione quando si svolgono attività online o si ricevono comunicazioni nelle quali anche un solo dettaglio appare sospetto. Inoltre, affidarsi a una soluzione efficace per la cybersecurity rimane una buona pratica da seguire.

Questo articolo contiene link di affiliazione: acquisti o ordini effettuati tramite tali link permetteranno al nostro sito di ricevere una commissione. Le offerte potrebbero subire variazioni di prezzo dopo la pubblicazione.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il 9 mar 2023
Link copiato negli appunti