Fox News colta con le mani nel sacco

Avrebbe trasmesso materiale protetto e per difendersi invoca il vituperato fair use. Mentre altri segmenti di News Corp si esercitano in tattiche anti-aggregatori
Avrebbe trasmesso materiale protetto e per difendersi invoca il vituperato fair use. Mentre altri segmenti di News Corp si esercitano in tattiche anti-aggregatori

Dopo aver lanciato strali contro il fair use, contro i gli aggregatori di notizie e in generale contro il meno remunerativo business dell’editoria online, Rupert Murdoch vede accusata la sua Fox News di aver mandato in onda parte di un’intervista a Michael Jackson per la quale non deteneva i diritti, posseduti invece da un ex consulente del defunto re del pop.

Un portavoce ufficiale di Fox non fornito ulteriori commenti ma da quello che si legge nel testo della denuncia l’emittente televisiva si sarebbe appellata proprio a quel fair use tanto disprezzato da Murdoch, che la controlla attraverso News Corp.

Intanto pare che la promessa fatta dallo stesso tycoon australiano di rendere invisibili le sue testate telematiche a motori di ricerca e aggregatori si stia lentamente traducendo in realtà: l’edizione online del Times di Londra ha iniziato a bloccare alcuni portali che indicizzavano i suoi contenuti. Il trucco è quello che in molti avevano suggerito allo stesso Murdoch tempo fa, il Robot Exclusion Standard che impedisce l’accesso al sito a determinati spider e bot.

Ciò che desta curiosità è che Google, indicato più volte come il peggior nemico della corporation statunitense, non risulta per ora tra i siti da cui il Times risulta inaccessibile. Come è stato fatto notare , NewsCorp dimostra di essere al corrente di questo stratagemma e il fatto che i bot di BigG siano ancora in grado di scorrazzare in tutto il suo network potrebbe evidenziare la difficoltà dei vari manager nel rinunciare al più importante vettore di contenuti online .

Intanto in Gran Bretagna fa discutere l’emendamento 292 del Digital Economy Bill , che in pratica garantirebbe a Google il diritto di copiare qualsiasi contenuto, eccetto quelli protetti da robot.txt . Il conservatore Lord Lucas, fautore della proposta, ha dichiarato che “i provider di siti accessibili pubblicamente dovrebbero consentire ai motori di ricerca di fare una copia di parte o tutto il materiale presente sul portale, per il solo motivo di garantire i servizi di ricerca (…) il provider che agirà in questa maniera non sarà responsabile di infrazione del copyright”.

Se già prima Murdoch non dormiva sonni tranquilli, questa notizia proveniente dal Regno Unito, dove operano molti suoi quotidiani, potrebbe essere la scintilla per scatenare ulteriori cause legali tra News Corp e aggregatori, a meno che le testate del gruppo non estendano l’utilizzo di robot.txt , impedendo a Google, Bing e altri di attingere alla propria fonte.

Giorgio Pontico

Link copiato negli appunti

Ti potrebbe interessare

12 01 2010
Link copiato negli appunti