Il flusso di dati di una giornata qualsiasi nei datacenter di Google si aggira sui 20 petabyte , l’equivalente di 20 milioni di gigabyte . Un valore enorme, in grado di mostrare una volta di più quale sia l’effettivo peso di Goozilla nella vita dei navigatori.
Per tentare di ottimizzare il processo di elaborazione, due ricercatori di Mountain View hanno creato un algoritmo denominato MapReduce , capace di ottimizzare la distribuzione del carico di lavoro sulla quasi infinita mole di server a disposizione di BigG.
Nato nel 2004, MapReduce oggi viene chiamato in causa circa 100mila volte al giorno, ma è in grado di ridurre drasticamente il carico di lavoro complessivo ottimizzando la distribuzione del peso computazionale su processori e hard disk e riducendo la mole di dati di output.
Microsoft e Yahoo! dispongono entrambe di tecnologie simili a MapReduce, denominate rispettivamente Dyrad e Hadoop . Tuttavia, l’algoritmo di Google è comunemente ritenuto il migliore attualmente disponibile sul mercato. ( L.A. )