Google trova troppa roba: critiche

Google trova troppa roba: critiche

La ricerca avanzata del motorone individua file di molti diversi formati. Troppi, secondo qualcuno, perché facilitano la vita ai cracker. Ma è davvero così?
La ricerca avanzata del motorone individua file di molti diversi formati. Troppi, secondo qualcuno, perché facilitano la vita ai cracker. Ma è davvero così?


Web – Google, il celebre motore di ricerca, è ancora una volta finito sotto i riflettori non per le sue mancanze ma per le sue notevoli capacità di ricerca. Capacità così estese che iniziano, anzi continuano, a dar fastidio. In particolare MSNBC dà ampio spazio ad una polemica che si sta sviluppando sulla ricerca avanzata di Google .

Una funzione introdotta di recente, infatti, consente agli utenti Google di ricercare sulla rete singoli file in base alla loro estensione, in particolare si possono trovare sparsi sui siti raggiunti dai robot indicizzatori di Google file con estensione.pdf,.ps,.xls,.ppt e.rft. Questa ricerca è associata anche alla possibilità di selezionare i risultati solo quando una certa estensione compare, per esempio, nella URL di un certo sito.

Secondo qualcuno questa ricerca rende la vita più facile ai cracker. Questi sarebbero in grado, proprio attraverso Google, di raggiungere più rapidamente “dati sensibili” che si trovano su pagine dei siti web che quegli stessi siti non hanno pensato come “pubbliche”.

Ma Google ritiene che tutto ciò che è online senza protezione da password e senza file che impediscano l’indicizzazione da parte dei motori sia da ritenersi pubblico. “La nostra specialità – ha spiegato il portavoce di Google David Krane – è scoprire, individuare e indicizzare informazioni disponibili pubblicamente. Noi definiamo pubblico tutto ciò che viene pubblicato su internet e non viene protetto in alcun modo dalle ricerche dei motori. L’onere principale cade su coloro che sbagliano ed espongono queste informazioni. Allo stesso tempo siamo consapevoli del problema e il nostro team di sviluppo sta lavorando dietro le quinte a diverse possibili soluzioni”.

Va da sé che ci sono molti modi per un sito per impedire ai motori l’indicizzazione di certe pagine. Sfruttando un robots.txt , per esempio, si può impedire che lo “spider” finisca dove non deve, ma c’è anche chi dice che infilare robots.txt sul sito significa segnalare ai cracker la presenza di informazioni che devono rimanere riservate e quindi potenzialmente interessanti…

Altri problemi, secondo qualcuno, risiedono nel fatto che la ricerca di quelle specie di file, potenzialmente soggetti a virus in misura maggiore delle pagine HTML, potrebbe risultare pericolosa. Ma è anche vero che chi cerca un file prodotto in Excel (.xls) o un “documento portatile” in formato Adobe,.pdf, è probabile che conosca i rischi della visualizzazione di file che non siano “sicuri” o di cui non sia nota la provenienza.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
27 nov 2001
Link copiato negli appunti