Creative Commons ha appena lanciato CC Signals, un progetto per decidere cosa l’intelligenza artificiale può “rubare” e cosa no. Il problema è che le aziende tech stanno divorando Internet per addestrare le loro AI, ma i creatori non vedono un centesimo.
Ogni giorno, milioni di bot scansionano Internet come un’aspirapolvere. Risucchiano testi, immagini, video, codice. Tutto finisce nelle macchine per addestrare ChatGPT, Claude, Gemini e compagnia bella. I proprietari dei contenuti? Rimangono a bocca asciutta. Il risultato è prevedibile. Sempre più siti stanno chiudendo i battenti o mettono paywall per proteggersi. Internet aperto sta morendo sotto i colpi dell’avidità dell’intelligenza artificiale.
Creative Commons dichiara guerra al furto dell’AI con CC Signals
Creative Commons, l’organizzazione che ha inventato le licenze libere, ora vuole fare lo stesso per l’era dell’intelligenza artificiale. Con CC Signals, chi ha dei contenuti online può dire esattamente cosa le AI possono fare con i suoi dati. E non è un caso che arrivi proprio ora.
Le aziende tech cambiano continuamente strategia. X prima ha autorizzato l’uso dei suoi dati per l’AI, poi ha cambiato idea. Reddit cerca di bloccare i bot e i crwaler con il file robots.txt, ma molti li ignorano. Cloudflare sta creando strumenti per far pagare i bot che raccolgono dati.
Ma il problema, è che i robots.txt e i “no crawl” sono suggerimenti, non ordini. Le aziende AI li ignorano quando gli conviene. Così gli sviluppatori open source hanno iniziato a costruire trappole digitali per sprecare le risorse dei bot indisciplinati. Una guerra silenziosa che va avanti da mesi.
Come funziona CC Signals?
Anna Tumadóttir, CEO di Creative Commons, dice che CC Signals nasce per proteggere i contenuti condivisi online, anche nell’epoca dell’intelligenza artificiale. In passato, le licenze Creative Commons hanno permesso a milioni di persone di condividere testi, foto e idee con regole precise e trasparenti. Ora l’obiettivo è lo stesso. Creare un sistema in cui i contenuti possano essere usati dalle AI solo a certe condizioni, stabilite da chi quei contenuti li crea. La parola chiave è: reciprocità. se l’AI prende, deve anche restituire.
Ma se Internet continua a chiudersi per proteggersi dall’AI, tutti ci rimettiamo. Meno contenuti aperti significa AI più stupide. AI più stupide significano strumenti peggiori per tutti. E strumenti peggiori significano meno innovazione.
Quando arriverà CC Signals
CC Signals è ancora in fase di progettazione. I primi test sono previsti per novembre 2025. Creative Commons sta raccogliendo feedback pubblico e organizzerà incontri per spiegare il progetto. Poi la palla passerà alle big tech, accetteranno di giocare secondo queste nuove regole?