OpenAI, ChatGPT e IA: l'approccio a sicurezza e privacy

OpenAI, ChatGPT e IA: l'approccio alla sicurezza

Nel giorno dell'incontro con il Garante italiano, OpenAI chiarisce l'approccio adottato sul tema della sicurezza nello sviluppo dell'IA.
OpenAI, ChatGPT e IA: l'approccio alla sicurezza
Nel giorno dell'incontro con il Garante italiano, OpenAI chiarisce l'approccio adottato sul tema della sicurezza nello sviluppo dell'IA.

Nell’intervento sul blog ufficiale che illustra l’approccio adottato nello sviluppo dei sistemi IA, in fatto di sicurezza, il team di OpenAI non fa alcun riferimento esplicito al caso italiano, che ha visto il Garante Privacy chiedere e ottenere il blocco temporaneo di ChatGPT. Eppure, le questioni affrontate sono in gran parte quelle sollevate dall’autorità nostrana. Passiamole in rassegna.

IA e sicurezza: l’approccio di OpenAI in sei punti

Il post si apre con una dichiarazione d’intenti e con una presa di coscienza. La prima è quella, attraverso cui, l’organizzazione ribadisce il proprio impegno finalizzato a mantenere l’intelligenza artificiale sicura. La seconda, invece, la porta a riconoscere e mettere nero su bianco l’esistenza di alcuni rischi associati all’impiego degli strumenti sviluppati.

Questi, dunque, i sei punti che definiscono l’approccio di OpenAI.

1: Sviluppo e sicurezza dell’intelligenza artificiale

Prima di rendere pubblicamente accessibile un nuovo sistema, il team conduce test rigorosi e si confronta con esperti esterni, raccogliendo i feedback necessari a migliorare il comportamento dei propri modelli. Nel caso di GPT-4 (alla base anche del nuovo Bing), questa fase è durata sei mesi. L’organizzazione riconosce l’esigenza di interfacciarsi con i governi e di sottoporre le IA a una regolamentazione apposita.

2: Gestione dei rischi emersi durante l’utilizzo

OpenAI ammette che non tutti i rischi possono essere valutati o previsti in laboratorio. In altre parole, una volta accessibile pubblicamente, un’intelligenza artificiale può essere impiegata con finalità virtuose o malevole che non erano state prese in considerazione dai suoi stessi responsabili. Per questo motivo, si rende necessario un approccio che possa tener conto degli utilizzi reali, raccogliendo indicatori e intervenendo per correggere il tiro senza soluzione di continuità. Questo vale anche per le API che permettono di implementare la tecnologia nei servizi di terze parti.

3: Protezione dei più piccoli

Su questo aspetto, la linea adottata da OpenAI è chiara: gli strumenti offerti possono essere utilizzati da chi ha compiuto 18 anni (o 13 anni, ma con l’approvazione dei genitori). Ciò che non altrettanto chiaro è come l’organizzazione intenda far rispettare questi paletti, limitandosi al momento ad affermare di essere alla ricerca di opzioni efficaci per la verifica dell’età.

4: Rispetto della privacy

OpenAI ribadisce quanto già reso noto: i modelli sono istruiti partendo da dataset composti in gran parte da contenuti disponibili pubblicamente, ai quali se ne affiancano altri generati da esseri umani incaricati del compito. L’organizzazione sottolinea che i dati non sono impiegati per vendere servizi o per campagne di advertising né per la profilazione degli utenti. Ribadito inoltre l’impegno a far sì che le informazioni personali possano essere rimosse, quando possibile, anche su richiesta (da inviare all’indirizzo deletion@openai.com).

Nonostante i nostri dati per la fase di training includano informazioni personali disponibili pubblicamente su Internet, vogliamo che i nostri modelli imparino dal mondo, non dai singoli individui.

5: Correttezza dei fatti e affidabilità dei modelli

Modelli come quello su cui poggia ChatGPT generano risposte sulla base dei pattern presi in esame. Per questo motivo, le frasi restituite possono talvolta descrivere fatti o eventi non in linea con quelli reali. Un aspetto che va migliorando soprattutto sulla base dei feedback ricevuti: secondo OpenAI, GPT-4 è il 40% più accurato rispetto a GPT-3.5, ma quello relativo alle cosiddette allucinazioni è un problema noto.

6: Ricerca continua e confronto

L’ultimo dei sei punti è quello che sembra tendere una mano all’autorità nostrana, seppur senza citarla in modo esplicito. Qui, l’organizzazione auspica una collaborazione globale tra tutte le parti in causa, inclusi i legislatori, ribadendo la propria disponibilità a contribuire affinché il tema possa essere affrontato puntando a un’innovazione sia sul fronte tecnico e tecnologico sia su quello istituzionale.

Crediamo che un approccio pratico alla risoluzione delle preoccupazioni riguardanti la sicurezza dell’IA consista nel dedicare più tempo e risorse alla ricerca di metodi efficaci di mitigazione, tecniche di allineamento e test contro gli abusi nel mondo reale.

Per tutti gli altri dettagli rimandiamo al post dedicato sul blog ufficiale. Ricordiamo infine che, proprio ieri, i responsabili di OpenAI hanno incontrato il Garante Privacy per un primo confronto a proposito della questione inerente al blocco di ChatGPT, con l’obiettivo dichiarato di trovare una soluzione condivisa e giungere all’implementazione degli accorgimenti utili affinché il servizio possa tornare operativo con modalità pienamente conformi a quanto stabiliscono le normative vigenti in Italia e in Europa.

Fonte: OpenAI
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
6 apr 2023
Link copiato negli appunti