La mega Grid europea scalda i motori

La mega Grid europea scalda i motori

In Europa sta ormai prendendo vita quello che diverrà uno dei più imponenti sistemi di grid computing: una vasta rete ultra-efficiente collegherà diverse decine di centri di ricerca di tutto il mondo
In Europa sta ormai prendendo vita quello che diverrà uno dei più imponenti sistemi di grid computing: una vasta rete ultra-efficiente collegherà diverse decine di centri di ricerca di tutto il mondo


Nottingham (Gran Bretagna) – Quello che sarà uno dei più grandi grid computer al mondo, se non addirittura il più importante in assoluto, sta per emettere il suo primo vagito in Europa. Chiamato Large Hadron Collider Computing Grid ( LCG ), l’obiettivo del megacomputer distribuito è quello di integrare le risorse di calcolo di vari istituti scientifici europei, statunitensi e asiatici e agglomerarle in una sorta di supercomputer virtuale.

La “griglia” collegherà il Large Hadron Collider (LHC), un acceleratore di particelle di nuova generazione, con centinaia di laboratori di ricerca sparsi in tutto il mondo. Il CERN di Ginevra, che prevede di mettere on-line l’LHC a partire dal 2007, utilizzerà il nuovo acceleratore di particelle per ricreare le condizioni esistenti subito dopo il Big Bang, dando così ai ricercatori maggiori possibilità di trovare le risposte alle più spinose domande riguardo all’origine dell’Universo e alla natura della materia.

La prima dimostrazione del grid computer scientifico si è tenuta negli scorsi giorni presso il meeting e-Science All Hands di Nottingham, in Inghilterra. Durante l’evento è stato rivelato che l’LCG sarà costituito da oltre 6.000 computer di tutto il mondo, 1.000 dei quali appartenenti al progetto inglese Grid for Particle Physics ( GridPP ).

Fra le organizzazioni che faranno parte del grid vi sarà anche l’Istituto Nazionale di Fisica Nucleare ( INFN ), dapprima con il CNAF di Bologna e, in seguito, con le sedi di Roma, Padova e Torino.

Quando completo, il CERN afferma che il grid computer europeo genererà dai 12 ai 14 petabyte di dati ogni anno: riuscire a gestire una tale mole di informazioni rappresenterà, secondo i tecnici, una vera e propria sfida. Il CERN stima che l’analisi dei dati prodotti annualmente dal network di calcolo richiederà una potenza di elaborazione equivalente a quella di 70.000 dei più veloci processori per PC oggi sul mercato.

Per realizzare questa rete di calcolo, IBM si avvarrà della propria tecnologia Storage Tank, un sistema che, attraverso l’uso di un file system universale, è in grado di far accedere gli utenti ai dati di cui hanno bisogno in maniera più diretta di quanto accade con Internet, minimizzando la necessità di server, applicazioni e protocolli intermediari.

“Lo stesso spirito che ha animato il CERN al momento dell’invenzione del World Wide Web, nel 1990, viene ora applicato allo sviluppo di una nuova applicazione per Internet, il Grid computing, che spingerà ai suoi limiti estremi l’attuale tecnologia”, si legge in una nota del CERN.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
6 set 2004
Link copiato negli appunti