Bus/ InfiniBand, oltre le barriere del PCI

Bus/ InfiniBand, oltre le barriere del PCI

È questa una nuova architettura in grado di sostituirsi agli attuali bus di sistema, come il PCI, ma anche di connettere fra loro strutture di computer che necessitano di una banda particolarmente elevata, come gli array di server
È questa una nuova architettura in grado di sostituirsi agli attuali bus di sistema, come il PCI, ma anche di connettere fra loro strutture di computer che necessitano di una banda particolarmente elevata, come gli array di server


In questi ultimi anni il PC ha progressivamente perso la sua connotazione di “personal computer” per vestire sempre più spesso i panni di workstation e di server. Del resto oggi un comune PC per giocare ha potenze di calcolo e risorse hardware da far invidia ad una workstation grafica.

Nonostante la continua evoluzione dell’architettura del PC, alcune sue tecnologie chiave stanno divenendo rapidamente obsolete. Una di queste è il bus PCI, un’architettura di interconnessione interna che sta ormai mostrando limiti di banda, affidabilità e flessibilità.

La prima risposta a queste nuove esigenze si concretizzerà con l’arrivo, già a partire da quest’anno, dell’erede dell’attuale bus dei PC: il bus PCI-X. Di questo aggiornamento al PCI abbiamo già dedicato un articolo approfondito in uno scorso numero di Plug-In.

Sebbene PCI-X punti anche al mercato dei server, ed anzi inizialmente verrà introdotto soltanto in questa fascia, i suoi limiti intrinseci non ne fanno la soluzione ideale per l’implementazione sui sistemi hi-end.

Proprio alla ricerca di una soluzione ad hoc per il mercato aziendale sette big dell’IT, Compaq, Dell, Hewlett-Packard, IBM, Intel, Microsoft e Sun Microsystems, hanno fondato qualche anno fa la InfiniBand Trade Association (IBTA), un consorzio che lo scorso autunno ha rilasciato le specifiche finali dell’omonima architettura di interconnessione che ambisce a divenire in tempi rapidi uno standard di mercato.

InfiniBand nasce dalla fusione di due progetti precedenti: Future I/O, sviluppato da Compaq, IBM e Hewlett-Packard, e Next Generation I/O, sviluppato da Intel, Microsoft e Sun Microsystems.


InfiniBand nasce con in mente non soltanto le prestazioni, ma soprattutto l’affidabilità, la disponibilità e la funzionalità: tutti fattori chiave nei sistemi mission critical.

InfiniBand non rappresenta solo una soluzione per l’interconnessione di dispositivi interni ad un computer, ma si pone altresì come tecnologia per connettere fra loro più computer o net appliance: ad esempio per le storage area network (SAN).

Con questa architettura l’IBTA si prefigge lo scopo di eliminare l’attuale miriade di specifiche di bus interni ed esterni offrendo uno standard unico adatto per ogni esigenza. Oltre al già citato PCI-X, le due architetture da battere sono la Gigabit Ethernet, Fibre Channel e Rapid I/O.

A differenza del PCI, che è un bus “condiviso” (i dati vengono trasportati contemporaneamente lungo gli stessi percorsi), InfiniBand utilizza un approccio di tipo “switched”: questo significa che l’intera larghezza di banda del bus viene messa a disposizione di una sola periferica alla volta per un tempo ben definito. Questa caratteristica consente ad InfiniBand di incrementare la banda passante e diminuire la latenza, ma soprattutto le consente di implementare meccanismi di fault tolerance e di correzione degli errori molto più sofisticati e affidabili di quelli che può offrire un bus condiviso.

L’altra grossa differenza è che mentre il PCI invia i dati in parallelo (nei PC di oggi viaggiano ad esempio a 32 bit per volta), InfiniBand li invia in modo seriale, con un sistema di canali multipli (fino a 16, bidirezionali ed indipendenti). I dati vengono raggruppati in pacchetti, qui chiamati “messaggi”, ed un protocollo di trasporto si preoccupa che questi arrivino a destinazione, scaricando da questo fardello processore e dispositivi di I/O.

Come si era visto per la funzione Split Transaction del bus PCI-X, anche InfiniBand permette ad un dispositivo in attesa di dati da una certa origine di occuparsi nel frattempo di altri task. Un messaggio può essere un’operazione diretta di lettura o scrittura della memoria effettuato in modalità Remote Direct Memory Access (RDMA), e viaggia su un modello a canali tipico dei mainframe. Ogni canale inizia e finisce con un adattatore: ciascun processore ha un “host channel adapter” (HCA), mentre ogni dispositivo di I/O ha un “target channel adapter” (TCA). Una delle tante caratteristiche positive che deriva da questa architettura è quella di utilizzare cavi a soli quattro poli, poco ingombranti ed economici.

InfiniBand è in grado di offrire una banda passante di 500 MB/s (cavi da un polo), 2,5 GB/s (cavi a 4 poli) fino ad arrivare a 6 GB/s (cavi a 12 poli). Come Gigabit Ethernet e Fibre Channel è poi capace di coprire distanze anche di chilometri su mezzi fisici come il rame e la fibra ottica. InfiniBand supporta inoltre fino a 15 virtual LAN, il multicast, il quality of service ed il controllo di flusso.


InfiniBand è ormai pronto a sbarcare sul mercato: i suoi target principali saranno i network cluster aziendali e gli Internet data center, fra cui fornitori di accesso e grossi centri di telecomunicazione.

Proprio in questi mesi sono apparsi i primi prototipi utilizzanti la tecnologia InfiniBand. L’arrivo dei primi prodotti sul mercato è attesa invece per il quarto trimestre: entro il 2004 si prevede che saranno oltre 3,5 milioni i server ad adottare questa tecnologia.

Almeno inizialmente, InfiniBand si posizionerà però come un’architettura complementare alle soluzioni già sul mercato, ma molti esperti sembrano concordi nel dire che la sua superiorità le permetterà di diventare uno standard unico nel giro di pochi anni.

Del resto nessuna attuale architettura né altri imminenti standard sembrano offrire in un’unica soluzione tutte le funzionalità di InfiniBand: velocità, affidabilità, scalabilità e copertura di lunghe distanze.

Mellanox, una delle prime aziende al mondo a produrre soluzioni di interconnessione basate sulla tecnologia InfiniBand, sta già sviluppando interfacce software per Linux, un sistema operativo che grazie alla sua natura open source consentirà il rapido porting di questi software verso moltissime piattaforme, prime fra tutte i vari Unix. Al suo rilascio InfiniBand supporterà da subito anche Windows 2000 e, più avanti, Whistler.

Nel mercato enterprise InfiniBand sembra dunque destinata a fare piazza pulita di qualsiasi altra tecnologia precedente, incluse Gigabit Ethernet e Fibre Channel. Ma approderà mai, come si augura qualcuno, sul mercato dei PC desktop? E’ probabile che qui la battaglia con il PCI-X sarà ben più combattuta, specie considerando che quest’ultimo standard è completamente compatibile con il passato ed offre già tutto ciò di cui gli utenti consumer hanno bisogno. I bassi costi di InfiniBand potrebbero però spingerla sul mercato delle workstation fino ad approdare magari sui PC mid-range.

Alessandro Del Rosso

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il 18 feb 2001
Link copiato negli appunti