OpenAI sul caso ChatGPT-NYT: 'la testata ha sfruttato un bug'

OpenAI sul caso ChatGPT-NYT: 'la testata ha sfruttato un bug'

OpenAI sostiene che il NYT avrebbe cercato e sfruttato un bug nel sistema che anima ChatGPT per sostenere le proprie accuse rivolte all'IA.
OpenAI sul caso ChatGPT-NYT: 'la testata ha sfruttato un bug'
OpenAI sostiene che il NYT avrebbe cercato e sfruttato un bug nel sistema che anima ChatGPT per sostenere le proprie accuse rivolte all'IA.

Nel mese di dicembre, il New York Times ha denunciato OpenAI (e il suo partner Microsoft) con l’accusa di aver impiegato senza autorizzazione i suoi articoli durante l’addestramento dei modelli IA utilizzati poi per animare ChatGPT. L’organizzazione di Sam Altman ha replicato nelle settimane successive. Oggi torna nuovamente sulla questione, puntando a sua volta il dito contro l’editore e sostenendo che, per supportare la sua tesi, la testata avrebbe sfruttato un bug del sistema.

Caso NYT-ChatGPT: OpenAI passa al contrattacco

In un nuovo documento (PDF) depositato si legge che hanno impiegato migliaia di tentativi per generare risultati altamente anomali. Inoltre, sono stati in grado di farlo solo prendendo di mira e sfruttando un bug (che OpenAI si è impegnata a risolvere), utilizzando istruzioni ingannevoli, in palese violazione dei termini di utilizzo di OpenAI. In altre parole, per rafforzare il proprio impianto accusatorio, il NYT avrebbe sottoposto al chatbot una serie di prompt creati ad hoc per restituire risultati interpretabili come una violazione del diritto d’autore.

C’è di più. OpenAI afferma che il New York Times avrebbe pagato qualcuno per farlo. Il colosso dell’informazione a stelle e strisce avrebbe dunque incaricato un esperto di trovare e di sfruttare un punto critico del sistema. Si legge che La verità, che emergerà nel corso di questo caso, è che il Times ha pagato qualcuno per hackerare i prodotti di OpenAI.

Nell’era dell’IA, c’è ancora posto per il diritto d’autore?

Qui sotto un passaggio piuttosto interessante. È quello in cui l’organizzazione si dichiara certa del proprio successo in tribunale. Il motivo? La controparte non sarà in grado di dimostrare di poter esercitare alcun controllo sui fatti e sulle regole della lingua.

OpenAI e gli altri imputati in queste cause, alla fine, prevarranno, perché nessuno, nemmeno il New York Times, può monopolizzare i fatti e le regole della lingua.

Messa così, per lo stesso principio, si potrebbe affermare che un artista non possa esercitare diritti nel proteggere la propria musica (o una qualsiasi altra forma di espressione) di fronte a un suo sfruttamento da parte dell’IA, poiché regolata da teorie musicali e progressioni armoniche a disposizione di tutti.

Il rapporto tra i big dell’intelligenza artificiale generativa e il mondo dell’editoria non è ancora stato definito in tutti i suoi aspetti. Proprio nelle ore scorse, abbiamo dedicato un articolo a una nuova iniziativa messa in campo da Google. È relativa a un sistema IA per la creazione automatica dei contenuti da portare online. La sua natura e le sue finalità sono ancora tutte da chiarire.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
28 feb 2024
Link copiato negli appunti