Supercomputer: a che servono?

Supercomputer: a che servono?

di Luca Biagiotti. La capacità di calcolo dei normali desktop, in questi ultimi anni, è cresciuta in modo esponenziale. Di pari passo si è mosso il megacomputer da laboratorio
di Luca Biagiotti. La capacità di calcolo dei normali desktop, in questi ultimi anni, è cresciuta in modo esponenziale. Di pari passo si è mosso il megacomputer da laboratorio


Web (internet) – Sin dal momento in cui è nato, la storia del computer è stata quella di una continua evoluzione, ed è arrivato ai giorni nostri assumendo una centralità sempre maggiore. A tal punto che oggi troviamo il cuore del computing, il processore, più o meno potente, in moltissimi degli oggetti che comunemente usiamo. Questo sviluppo si è verificato anche tra i supercomputer, grandi macchine con capacità di calcolo impressionanti.

Strumenti che trovano applicazione in svariati campi: previsioni meteo su larga scala o computer grafica tridimensionale di alto livello per la creazione di lungometraggi. Ma soprattutto simulazioni software di avvenimenti reali, come avviene nell’interazione dei supercomputer con il telescopio spaziale Hubble. E ‘ questo che consente di fotografare oggetti lontanissimi e di tracciare una mappa del cosmo, ma è poi con l’aiuto dei più potenti computer che i dati rilevati vengono utilizzati per mettere alla prova le diverse teorie sull’origine dell’universo.

Il campo dove l’uso di questi calcolatori, unito alla simulazione, risulta forse avere un’importanza particolare è sicuramente quello nucleare. In questo settore, il computer ha sempre avuto un’importanza primaria. Fin da quando è cominciato lo sviluppo di armi alternative, si è pensato di usare le macchine elettroniche. Sono servite, per esempio, per creare le prime bombe ad idrogeno.

L’utilizzo principale consiste nel far simulare dai computer i test atomici veri e propri. Chris Payne, ricercatore al consiglio nazionale della difesa di Washington, afferma che già oggi ci sono computer in grado di simulare gli effetti di ordigni atomici. Sfidando così una intera corrente di pensiero contraria alle simulazioni e favorevole ai testi “dal vivo” emersa in Congresso nelle ultime settimane, che ha portato ad una crisi sul trattato internazionale di non proliferazione degli armamenti.

Il complesso americano che ruota intorno agli studi e alle simulazioni sulle armi nucleari si compone di tre laboratori che fanno parte del dipartimento dell’energia americano: Sandia e Los Alamos nel New Mexico, Lawrence Livermore in California. La simulazione dell’effetto che provoca un’esplosione atomica, e lo sviluppo dell’ordigno stesso, possono essere ricreati al computer attraverso dei codici software e dei programmi appositamente studiati che si compongono di milioni di singole parti autonome unite tra loro.

I test possono richiedere l’utilizzo di centinaia di diversi software, solo per simulazioni di un milionesimo di secondo. Per lo svolgimento di programmi interi e completi, questi “simulatori” elettronici richiedono molti giorni di calcolo intensivo. I programmi di simulazione americani, i più avanzati al mondo, sono stati creati dopo decenni di studi e prove, sia attraverso test effettuati via software, sia utilizzando le conoscenze acquisite con sperimentazioni reali.

La richiesta della massima potenza disponibile diviene necessaria per il calcolo tridimensionale degli avvenimenti, che richiede circa 100 trilioni di operazioni al secondo. Le performance richieste per una completa simulazione e quindi, teoricamente, per una completa sostituzione con questo metodo delle sperimentazioni reali effettuate con ordigni nucleari, sarebbero di circa cento teraflops, mentre oggi siamo nell’ordine dei 3-4 teraflops.

Queste macchine “da sogno” sono l’IBM “Blue Pacific”, supercomputer a Livermore, ed il Silicon Graphics “Blue Mountain”, che opera a Los Alamos. Macchine che, però, contrariamente a quanto potremmo pensare, non sono composte da processori da migliaia di MHz o da schede interne decine di volte più potenti di quelle normalmente in commercio. Come si suol dire, l’unione fa la forza, e questo è ancor più vero nell’informatica di laboratorio. La superpotenza è infatti data dall’unione in rete di centinaia, e a volte migliaia, di potenti workstation che lavorando in simultanea riescono a svolgere operazioni impensabili per un solo calcolatore.

Con l’aumento delle prestazioni dei computer, comunque, si è innescata la positiva spirale che prevede sempre meno sperimentazioni reali in proporzione al maggiore avanzamento tecnologico. Secondo le università del Texas e della California, che collaborano alle simulazioni nucleari, la quantità di teraflops richiesti dovrebbe essere raggiunta intorno al 2003. Se così fosse, per quella data sarebbe possibile auspicare una reale sostituzione dei test atomici con simulazioni al supercomputer.

Luca Biagiotti

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
5 nov 1999
Link copiato negli appunti