ChatGPT: le 10 cose che si rifiuta di fare

ChatGPT: le 10 cose che si rifiuta di fare

ChatGPT porta a termine molti compiti, ma si rifiuta di completarne altrettanti: ecco alcuni casi dove il chatbot si rivela "incapace".
ChatGPT: le 10 cose che si rifiuta di fare
ChatGPT porta a termine molti compiti, ma si rifiuta di completarne altrettanti: ecco alcuni casi dove il chatbot si rivela "incapace".

ChatGPT è uno strumento eccezionale con poteri immensi, ma anche con limiti importanti che ne impediscono l’utilizzo al massimo delle sue capacità. Esistono strumenti esterni che permettono agli utenti di sfruttare il chatbot di OpenAI per casi d’uso specifici, come Keywords Everywhere; eppure, tra l’arguzia degli utenti e le incapacità dell’IA, certe mansioni non possono essere completate o, al contrario, alcune attività proibite possono essere portate a termine aggirando i filtri posti dagli sviluppatori.

Vediamo, pertanto, 10 cose che ChatGPT si rifiuta di fare, o fa nonostante il divieto imposto dai creatori.

Parlare di politica

ChatGPT si tiene tendenzialmente alla larga dalla politica: può parlare senza problemi al riguardo, ma a grandi linee e per argomenti oggettivi o fatti indiscutibili, ma non scende mai nel dettaglio dei singoli partiti schierandosi apertamente. Questo limite è necessario affinché il chatbot non risulti soggetto a pregiudizi; tuttavia, è già capitato che alcuni prompt tendenti verso sinistra ricevessero il sostegno del modello di linguaggio con output a favore, mentre altri prompt legati ai partiti di destra sono stati bloccati o trattati con meno informazioni. L’esempio più iconico notato negli Stati Uniti, per quanto ironico, consiste nelle poesie per Joe Biden e Donald Trump: sapevate che ChatGPT scrive poesie per l’attuale Presidente, mentre non lo fa per il tycoon americano?

Programmare malware

ChatGPT è un eccellente programmatore e, con le giuste istruzioni (specialmente quelle particolarmente precise e ricche di dettagli) riesce a progettare siti interi o applicazioni in pochi minuti, aiutando gli sviluppatori umani. Le misure di sicurezza di OpenAI dovrebbero impedirgli di creare malware ma, sfortunatamente, i cybercriminali e ricercatori in ambito cybersecurity sono già riusciti ad aggirare tali limiti permettendo al chatbot di realizzare virus completi. Inevitabilmente, i campanelli di allarme hanno iniziato a risuonare: in futuro cambierà qualcosa?

ChatGPT logo esagonale

 

Discutere sulla guerra

Come nel caso della politica, il chatbot di Sam Altman e soci condanna tutte le discussioni relative a conflitti, violenza fisica e criminalità: ogni chiacchierata sulla guerra in Ucraina, pertanto, verrà stroncata sul nascere per ridurre al minimo la responsabilità dell’IA nella condivisione di notizie poco accurate o informazioni potenzialmente false, generate dal modello di linguaggio sulla base di dati non aggiornati. Tuttavia, ChatGPT può comunque fornire informazioni oggettivamente vere su conflitti del passato, con il puro intento di educare l’interlocutore.

Condividere opinioni controverse

ChatGPT cerca di essere il più politicamente corretto possibile, evitando temi come razza, sessualità e genere, in quanto emotivamente carichi e rischiosi, in quanto potrebbero urtare la sensibilità delle persone tra pregiudizi e discriminazioni. Per questa ragione, il chatbot non discute su questi temi, o ne parla a grandi linee; se sotto pressione, si rifiuta categoricamente di parlarne, per ovvi motivi.

Prevedere il futuro

L’intelligenza artificiale di OpenAI è molto potente, ma non trascende spazio e tempo. I dati con i quali è stato addestrato il modello di linguaggio si limitano al 2021 e, grazie ai plugin ora in fase di test, solo a breve potrà accedere a Internet per condurre ricerche sul World Wide Web e approfondire questioni per le quali non ha alcuna informazione utile. Magari con il jailbreak di ChatGPT potreste riuscire a estrapolare qualche risposta più cinica o controversa, ma non aspettatevi miracoli.

ChatGPT

Rilasciare dichiarazioni offensive

Normalmente l’IA evita qualsiasi conversazione che possa riguardare argomenti sensibili, come appunto la comunità LGBTQ+. Qualche utente ha però scoperto dei prompt che sbloccano il chatbot, dandogli carta bianca nel rilascio di dichiarazioni poco cortesi, offensive o esagerate sotto più punti di vista. Anche in questo caso, si tratta di un limite aggirato con successo dagli utenti.

Rispondere a domande su informazioni riservate

Il chatbot raccoglie continuamente i dati relativi agli input inviati dagli utenti e agli output generati, migliorando costantemente la qualità delle risposte. Naturalmente, però, non può sfruttare tali informazioni per condividere dettagli riservati su altri individui: se a ChatGPT non viene consentito l’accesso a determinate domande e risposte per rimanere entro le condizioni d’uso poste da OpenAI, non c’è alcuna possibilità che la conversazione prenda strane pieghe. In questo caso nemmeno il jailbreak vi aiuterà!

Proporre idee illegali

Sebbene ChatGPT sia eccellente nel proporre idee, non ne genererà alcuna illegale. Il jailbreak, ancora una volta, non aiuterà le menti più malvagie: non promuoverà modi illeciti per trarre profitti facili, tantomeno offrirà raccomandazioni in merito a comportamenti che infrangono la legge. Al loro posto, l’IA si limita a un discorso di incoraggiamento sul motivo per cui non dovresti fare tali cose in primo luogo.

ChatGPT non è un motore di ricerca

ChatGPT non funziona come Google Bard o Bing Chat, leggendo i risultati di ricerca sul Web per rispondere alle domande degli utenti. Con il set di dati con i quali è stato addestrato, il chatbot di OpenAI resta un portento nella programmazione e nella scrittura creativa, ma non consente di trovare articoli o editoriali su realtà, fatti e progetti avvenuti e nati successivamente al 2021.

ChatGPT logo 3D

Superare le misure di sicurezza

Gli utenti hanno cercato di superare le restrizioni e le misure di sicurezza di ChatGPT sin dall’inizio, e il jailbreak serve proprio ad andare oltre i limiti imposti dagli sviluppatori. Con il passare del tempo e l’evoluzione del chatbot i prompt per sbloccare l’IA sono diventati più lunghi e complessi; ergo, un utente poco esperto farà fatica a superare i confini dell’intelligenza artificiale. Una mente furba, però, può provarci e riuscirci con pochi click.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
11 mag 2023
Link copiato negli appunti