5 grossi problemi che ChatGPT non ha ancora risolto

5 grossi problemi che ChatGPT non ha ancora risolto

Ecco 5 problemi che ChatGPT non ha ancora risolto, tra i limiti del chatbot e output poco etici o potenzialmente pericolosi.
5 grossi problemi che ChatGPT non ha ancora risolto
Ecco 5 problemi che ChatGPT non ha ancora risolto, tra i limiti del chatbot e output poco etici o potenzialmente pericolosi.

Usato quotidianamente da decine di milioni di persone, il chatbot ChatGPT di OpenAI continua a essere un argomento caldo e manifesto di un’evidente rivoluzione tecnologica che sta interessando tutti i giganti della tecnologia e, in fondo, anche le piccole aziende. Tra i mille vantaggi che il suo utilizzo comporta, però, bisogna osservare con molta attenzione e cautela una serie di errori per i quali l’organizzazione di Sam Altman ancora non fornisce una soluzione. Ecco 5 problemi che ChatGPT non ha ancora risolto.

L’IA di ChatGPT è limitata

ChatGPT può apparire estremamente potente ma, ancora oggi, può capitare di incorrere nell’avviso “ChatGPT è al completo in questo momento” che invita gli utenti ad accedere in un secondo momento allo strumento alla luce dell’elevato traffico. I server necessari al fine di mantenere attivo il chatbot sono particolarmente costosi, del resto, e il numero di abbonati a ChatGPT Plus non è sufficiente al fine di sostenere tali spese.

I limiti si notano poi nella generazione delle risposte: senza accesso a Internet nella iterazione gratuita, il chatbot può fornire informazioni errate come output in quanto non aggiornato alle ultime notizie del momento. Insomma, è evidente che ChatGPT non sia ancora uno strumento eccellente.

ChatGPT

Plagio ed errori concettuali

Per quanto possa essere creativo, ChatGPT spesso fornisce le stesse risposte a richieste più o meno simili, senza utilizzare giri di parole o avvalendosi di altri espedienti lessicali per esprimere lo stesso concetto, evitando di incorrere in casi di plagio. Secondo alcuni test condotti da utenti terzi, il chatbot genera principalmente contenuti originali, ma può incorrere in casi di copia-incolla nel caso in cui debba condividere dichiarazioni e informazioni generiche.

La parafrasi effettuata da ChatGPT a partire da fonti esistenti rende il plagio un pericolo reale, specialmente per studenti e professionisti che intendono sfruttare l’intelligenza artificiale al fine di semplificare il loro lavoro e le loro ricerche. Data la mole di materiale mediocre presente su Internet, è chiaro che ChatGPT sia stato addestrato su set di dati potenzialmente uguali, e non si tratta di un problema facilmente risolvibile: l’intervento umano è strettamente necessario.

Non solo plagio: ChatGPT spesso sbaglia con le risposte. OpenAI ha già dichiarato, togliendosi ogni responsabilità, che il chatbot ha “una conoscenza limitata degli eventi mondiali dopo il 2021” e “a volte scrive risposte plausibili ma errate o prive di senso”. I gravi rischi della disinformazione non sono per mitigabili con queste semplici affermazioni, e il problema va risolto alla base, ovvero nel modello di addestramento adottato da Sam Altman e soci.

Un modo per affrontare le inesattezze di ChatGPT consisterebbe nel collegare lo strumento a domini specializzati per verificare le informazioni, ma così i portali potrebbero applicare bias al bot.

Tutela della privacy

Da mesi ormai si discute dei possibili rischi legati alla privacy degli utenti che sfruttano ChatGPT per varie mansioni. Secondo alcune ricerche, OpenAI addestrerebbe il chatbot sfruttando dati condivisi dal pubblico senza avvisare quest’ultimo del loro utilizzo; ergo, violando il GDPR. Le preoccupazioni che hanno portato al blocco del chatbot in Italia – poi rimosso una volta raggiunto l’accordo con l’organizzazione no-profit – ora riguardano anche altri Paesi europei e non solo, soprattutto in seguito al bug che ha permesso ad alcuni utenti di vedere le conversazioni dalla cronologia chat di altri consumatori.

In breve, cosa garantisce al pubblico che i dati condivisi siano al sicuro sui server di OpenAI?

Creazione di malware

I malintenzionati più furbi sono riusciti a generare malware chiedendo a ChatGPT la stesura di stringhe di codice avanzate, nonostante i programmatori di OpenAI abbiano cercato in più modi di arginare questo fenomeno. Fondamentalmente, l’IA non risponde positivamente alle richieste di coloro che vogliono realizzare programmi potenzialmente pericolosi; tuttavia, con i prompt giusti, è possibile evitare questi blocchi e procedere liberamente con la creazione di codice imperfetto, ma utile come base dalla quale partire per dare vita, infine, a malware e applicazioni per il furto di dati personali o schemi di phishing.

Bias e razzismo

Quest’ultimo problema è forse il più grave presente in ChatGPT: sebbene si tratti di uno strumento intelligente, le informazioni su cui si basa e il suo comportamento derivano da esseri umani. Ciò significa che l’IA può ereditare i pregiudizi e fornire risposte razziste, poco etiche, a volte scioccanti. Questo è in fondo un problema che riguarda tutti i sistemi IA e che ancora non ha una soluzione vera e propria, poiché darebbe vita a una catena interminabile di controllo degli esseri umani da parte di altri esseri umani, senza mai determinare la vera bontà dell’IA.

Uno studio pubblicato dall’Allen Institute for AI ha evidenziato la tossicità di ChatGPT che, alla richiesta di parlare come Muhammad Ali, ha restituito output sconcertanti; le performance peggiorano sensibilmente una volta una volta effettuato il jailbreak (ovvero lo sblocco dei limiti dell’intelligenza artificiale) e richiesto all’IA di parlare come se fosse Adolf Hitler. Assegnate certe personalità, pertanto, ChatGPT può etichettare certi gruppi di individui a seconda della loro etnicità o anche del colore della pelle.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
26 mag 2023
Link copiato negli appunti