Avversari da sempre sul mercato, Microsoft, Yahoo! e Google riescono in rare occasioni a mettersi d’accordo su standard e procedure generali nel gestire le tecnologie di ricerca sul web. Proprio in una di queste rare occasioni le tre corporation hanno accettato di implementare il meccanismo ideato da Mountain View per semplificare l’individuazione dei link a contenuti duplicati da parte dei crawler dei motori di ricerca.
Il problema è rappresentato dall’esistenza, su un buon numero di siti e su quelli di e-commerce in particolare, di URL multipli indirizzati ad aprire la stessa pagina , la qual cosa porta i crawler suddetti a indicizzare più volte la stessa risorsa e quindi a fornire all’utente risultati falsati da questo spam autoindotto.
Una questione non secondaria se si considera che, secondo alcune stime, il 20 per cento degli URL del web sarebbero “doppioni” di contenuti già censiti altrove. La soluzione ideata da Google è elegante e al tempo stesso efficace, perché prevede semplicemente di specificare, all’interno della sezione head della pagina web duplicata, il nuovo attributo “Canonical Link Tag” con l’indicazione della pagina originale a cui punta l’URL.
Naturalmente è prevista tutta una serie di misure di garanzia per cui, qualora il referrer non andasse a buon fine e il link canonico conducesse a un errore di pagina non trovata (404), Google continuerebbe a indicizzare il sito come sempre, utilizzando parametri di scansione euristica per individuare gli eventuali contenuti duplicati.
Che tutti i principali player di settore abbiano deciso di adottare la stessa identica implementazione è a ogni modo un fatto positivo, evidenzia il program manager di Microsoft Nathan Buggia , in quanto “si tratta di un chiaro beneficio per i publisher perché fornisce loro l’opportunità di avere una maggiore visibilità per mezzo dei motori di ricerca”.
Alfonso Maruccia