Really Simple Licensing (RSL) è il nuovo standard che dovrebbe porre fine al cosiddetto scraping AI dei contenuti da parte dei bot, senza autorizzazione e pagamento del compenso. Sviluppato dall’organizzazione RSL Collective e supportato da vari editori e diverse aziende tech, RSL permette di stabilire i termini di licenza per l’uso degli articoli pubblicati online.
Come funziona lo standard RSL
Attualmente l’unica difesa contro lo scraping non autorizzato è il Robots Exclusion Protocol. I proprietari dei siti devono aggiungere una riga nel file robots.txt per ogni bot (crawler) che vogliono bloccare. Questa soluzione non è tuttavia efficace, come hanno scoperto Cloudflare, Reddit, Ziff Davis e altre aziende.
Il nuovo standard Really Simple Licensing (RSL) è un’estensione del Robots Exclusion Protocol, in quanto aggiunge i termini di licenza al file robots.txt e permette di bloccare i bot delle aziende che non pagano un compenso per l’uso dei contenuti.
RSL è uno protocollo aperto, decentralizzato e basato sul noto standard RSS (Really Simple Syndication). Può essere applicato ad ogni contenuto digitale pubblicato su Internet. Non solo pagine web, ma anche libri, video e dataset usati per l’addestramento dei modelli di intelligenza artificiale. È stato sviluppato da RSL Collective, organizzazione fondata dal co-creatore dello standard RSS.
A differenza del file robots.txt, che indica il permesso o il divieto di accesso, RSL consente agli editori di aggiungere termini di licenza e royalty leggibili dai bot al file robots.txt, specificando il tipo di pagamento per l’uso dei contenuti. RSL supporta vari modelli di licenza (gratuita, attribuzione, abbonamento, pay-per-crawl e pay-per-inference).
Tra le aziende che supportano il nuovo standard ci sono Reddit, People, Yahoo, Internet Brands, Ziff Davis, wikiHow, O’Reilly Media, Medium, The Daily Beast, Miso.AI, Raptive, Ranker, Evolve Media, Fastly, Quora e ADWEEK. Sul sito ufficiale sono presenti alcuni esempi di utilizzo.