Google, ma quanto mi calcoli?

Google, ma quanto mi calcoli?

Cifre da brivido per il lavoro quotidiano dei server di Mountain View. Ogni giorno scorrono oceani di dati nei suoi datacenter. Con un trend di crescita esponenziale
Cifre da brivido per il lavoro quotidiano dei server di Mountain View. Ogni giorno scorrono oceani di dati nei suoi datacenter. Con un trend di crescita esponenziale

Il flusso di dati di una giornata qualsiasi nei datacenter di Google si aggira sui 20 petabyte , l’equivalente di 20 milioni di gigabyte . Un valore enorme, in grado di mostrare una volta di più quale sia l’effettivo peso di Goozilla nella vita dei navigatori.

Per tentare di ottimizzare il processo di elaborazione, due ricercatori di Mountain View hanno creato un algoritmo denominato MapReduce , capace di ottimizzare la distribuzione del carico di lavoro sulla quasi infinita mole di server a disposizione di BigG.

Nato nel 2004, MapReduce oggi viene chiamato in causa circa 100mila volte al giorno, ma è in grado di ridurre drasticamente il carico di lavoro complessivo ottimizzando la distribuzione del peso computazionale su processori e hard disk e riducendo la mole di dati di output.

Microsoft e Yahoo! dispongono entrambe di tecnologie simili a MapReduce, denominate rispettivamente Dyrad e Hadoop . Tuttavia, l’algoritmo di Google è comunemente ritenuto il migliore attualmente disponibile sul mercato. ( L.A. )

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
11 gen 2008
Link copiato negli appunti