Speciale IDF/ Le nuove piattaforme Intel

Al suo Developer Forum il chipmaker annuncia alcune nuove tecnologie e prodotti che faranno parte di piattaforme integrate, simili a Centrino, indirizzate però anche al mercato server e desktop. Tutti i dettagli
Al suo Developer Forum il chipmaker annuncia alcune nuove tecnologie e prodotti che faranno parte di piattaforme integrate, simili a Centrino, indirizzate però anche al mercato server e desktop. Tutti i dettagli


San Francisco (USA) – E’ una Intel più che mai decisa a lasciarsi alle spalle gli errori e le incertezze del passato quella che, sotto la nuova guida di Craig Barrett, sta svelando i prodotti e le strategie con cui controbattere alla sua più piccola ma grintosissima rivale, AMD.

Una Intel che, a 40 anni di distanza dalle “profetiche” parole del suo co-fondatore Gordon Moore, si dice ancora pienamente fiduciosa nella possibilità di spingere costantemente le performance dei microprocessori e, secondo la nota legge di Moore, raddoppiarne il numero dei transistor ogni due anni.

E’ un’innovazione, quella dipinta da Barrett, che si incarnerà soprattutto nelle imminenti piattaforme multi-core.

“Abbiamo utilizzato la Legge di Moore per favorire la convergenza tra elaborazione e comunicazioni”, ha affermato Barrett presso l’Intel Developer Forum di San Francisco. “L’impegno di Intel verso la Legge di Moore ci consente oggi di sviluppare piattaforme integrate che offrono un’ampia gamma di funzionalità agli utenti singoli e alle organizzazioni che impiegano la tecnologia. Per realizzare le piene potenzialità di queste funzionalità, la continua innovazione e la cooperazione del settore rivestono un’importanza decisiva”.

Il termine chiave delle recenti strategie di Intel è proprio “piattaforma integrata”, ed è destinato ad assumere un ruolo sempre più importante nel futuro del colosso. La prima piattaforma integrata di Intel destinata al mercato mainstream è stata Centrino, che ha consentito al chipmaker di guadagnare preziosissimi spazi nel fertile mercato mobile. Intel ha ora intenzione di applicare lo stesso concetto ad altri ambiti, incluso quello dei PC desktop, dove ha intenzione di fornire agli OEM soluzioni comprensive di CPU, chipset e altri componenti.

Uno degli aspetti più importanti di questa nuova linea strategica sarà dato dalla maggiore uniformità tra piattaforme: nel momento in cui Intel migrerà tutti i suoi chip verso la propria tecnologia multi-core, verranno infatti a cadere molte delle distinzioni oggi in essere tra piattaforme desktop, mobili e server. Non solo tutte e tre condivideranno buona parte delle tecnologie e delle architetture ma i componenti che ne faranno parte – come il processore – diverranno maggiormente intercambiabili: ciò significa, ad esempio, che una stessa scheda madre potrà supportare un P4 o uno Xeon.

“Intel sta estendendo l’approccio basato su piattaforma in diverse aree, tra cui la casa digitale, l’azienda digitale, il settore della sanità e, in senso lato, nel settore della mobilità e attraverso i mercati globali”, ha dichiarato Barrett. “Allo stesso tempo, per soddisfare le esigenze in costante evoluzione degli utenti finali in queste aree con piattaforme integrate, si renderanno indispensabili le capacità di elaborazione aggiuntive della tecnologia multi-core per attività multiutente e multitasking. La tecnologia multi-core rappresenta una notevole opportunità per la comunità di sviluppatori. Fornisce le basi per un livello di innovazione e creatività quasi illimitato, in quanto soddisfa le mutate esigenze degli utenti di dispositivi per l’elaborazione e le comunicazioni”.

Per soddisfare le esigenze degli utenti, Intel afferma che è anche necessario sviluppare tecnologie che non solo aumentino le prestazioni ma migliorino anche la sicurezza, l’affidabilità, la facilità d’impiego e altri aspetti dell’elaborazione e delle comunicazioni. Ecco quali.


Fra le tecnologie annunciate da Intel all’IDF c’è l’Active Management Technology (AMT), che Intel introdurrà nei suoi prossimi processori, chipset e schede di rete per migliorarne la gestione e il controllo centralizzato e da remoto.

AMT permette ai responsabili IT di individuare e risolvere in remoto diversi problemi dei computer che, secondo il chipmaker, in precedenza richiedevano un intervento in loco del servizio di assistenza: oltre a ciò, AMT permette di configurare nuovi computer, effettuare il download di aggiornamenti software, eseguire la gestione dell’inventario e individuare e risolvere diverse tipologie di problemi. Tali controlli e azioni saranno possibili anche nel caso in cui il computer di destinazione sia spento, il sistema operativo bloccato o si sia guastato un componente non vitale, come l’hard disk.

La specifica architetturale di AMT prevede la possibilità di interfacciare questa tecnologia con software di gestione e sicurezza compatibili, e di utilizzare funzionalità di monitoraggio e controllo integrate nella piattaforma client. La tecnologia AMT verrà implementata come sottosistema completamente separato dal sistema operativo host. “Questa indipendenza – ha spiegato Intel – risolve uno dei principali problemi dei responsabili IT: la disattivazione intenzionale o accidentale delle funzionalità di sicurezza e gestione nei PC”. A partire dal 2006 AMT supporterà lo standard Web Services Management ( WS-Management ), che definisce un modello di gestione standard dei sistemi via Web.

Intel sostiene che AMT sarà complementare e interfacciabile alla tecnologia di virtualizzazione Vanderpool (ora battezzata ufficialmente Virtualization Technology), a quella di sicurezza LaGrande e all’interfaccia Extensible Firmware Interface (EFI) per le operazioni di pre-boot. Nel caso di Vanderpool, che permette di creare partizioni in una parte del PC per le operazioni di manutenzione e di upgrade del software o per far girare un differente sistema operativo, la combinazione con AMT renderà possibile eseguire tali operazioni su sistemi spenti o guasti. L’accoppiata tra quest’ultima e LaGrande fornirà invece un ambiente di gestione descritto da Intel come “resistente alle manomissioni” ed eseguibile parallelamente ad altre funzionalità di sistema complementari. AMT si servirà invece dei BIOS compatibili con EFI per garantire l’accesso ai sistemi in modo indipendente dal sistema operativo.

L’altra tecnologia a livello di piattaforma presentata all’IDF, e preannunciata la scorsa settimana , è l’I/O Acceleration (I/OAT): si tratta in realtà di un insieme di tecnologie del silicio che, secondo il gigante californiano, sono destinate a migliorare fino al 30% la velocità di trasmissione fra interfacce di rete e applicazioni server.

“Anche se le prestazioni delle CPU dei server e la larghezza di banda delle reti sono migliorate nel corso degli anni, il metodo principale per il trasferimento dei dati è rimasto invariato. Oggi, il processore del server si assume il carico totale dell’elaborazione, dell’accesso alla memoria e dell’elaborazione dei protocolli su ogni pacchetto di dati. Di conseguenza, le operazioni del processore vengono distolte in larga misura da altre funzioni, a discapito dei tempi di risposta, dell’affidabilità e dell’esperienza degli utenti”, ha spiegato Intel.

La tecnologia Intel I/O Acceleration risolve questo problema suddividendo il compito di gestione dei dati tra tutti i componenti che costituiscono la piattaforma, ossia processore, chipset, controller di rete e software. Questo approccio, che promette di accelerare il flusso dei dati, riduce il carico di lavoro del processore affidando al chipset e al controller di rete la responsabilità del trasferimento di dati da e verso la memoria e ottimizzando lo stack del protocollo TCP/IP.

Intel sostiene che I/OAT risolve inoltre i problemi delle attuali tecnologie, ad esempio i moduli TOE (TCP Offload Engine), progettati per liberare il processore dall’elaborazione TCP/IP.

“In base alla tecnologia TOE – ha spiegato il chipmaker – l’elaborazione dei protocolli viene affidata a un chip speciale e costoso, ma questo non risolve completamente l’overhead del sistema o l’accesso alla memoria, che rappresentano i due carichi maggiori per la CPU. Di conseguenza, questa soluzione è efficace solo con payload dei pacchetti di grandi dimensioni, ad esempio quelli dei database a elevate prestazioni e delle applicazioni di data-warehousing”.

Microsoft ha annunciato che fornirà il supporto nativo alla tecnologia I/OAT nelle future versioni di Windows Server: queste includeranno anche una tecnologia che bilancia i flussi del traffico di rete TCP/IP attraverso CPU multi-core.

Lo scorso mese Intel ha introdotto un componente di storage con tecnologia I/OAT che prevede l’accelerazione delle configurazioni RAID-6.

Durante l’IDF Intel ha poi svelato alcuni dettagli sulla propria roadmap. Ecco di che si tratta.


Sul fronte desktop verso la fine del 2005 vedrà la luce Lyndon , nome in codice di una piattaforma compatibile con i Pentium 4 5xx e 6xx e gli imminenti chip desktop dual-core Smithfield , ora ufficialmente battezzati Pentium D. Questa piattaforma comprenderà il chipset 954G o 955X, l’adattatore di rete Intel Pro 1000PM e le tecnologie AMT e Vanderpool.

Nel corso del 2006, Lyndon evolverà nella piattaforma Averill, basata su di un chipset noto come Broadwater e sugli stessi processori a singolo e doppio core supportati da Lyndon. Averill dovrebbe essere la prima piattaforma ad integrare LaGrande e la seconda versione di AMT.

Sul fronte dei server, nel 2005 Intel prevede il debutto di Truland , una piattaforma che supporterà i processori Xeon MP dual-core Paxville e Tulsa. Paxville, previsto per il primo trimestre del prossimo anno, sarà il primo membro della famiglia di Xeon dual-core e conserverà un processo produttivo a 90 nanometri.

Bensley e Glidewell saranno invece due piattaforme basate sugli Xeon DP dual-core “Dempsey”: quest’ultimo chip, atteso per la seconda metà del 2006, verrà fabbricato con una tecnologia a 65 nm.

Infine, la piattaforma Reidland , prevista per il 2007, introdurrà il core Whitefield basato sulla prima architettura multi-core (ovvero, con più di due core) per processori Xeon MP.

Il futuro del poco fortunato Itanium sarà invece affidato a Millington e Montvale, entrambi basati su architetture dual-core e dedicati ai server a due vie, e Montecito, un core multiprocessore e multi-core.

Barrett ha detto che per la fine del 2006 l’85% dei processori server venduti si baserà sulla tecnologia dual-core, una percentuale che per i chip desktop e mobile sarà intorno al 70%.

Link copiato negli appunti

Ti potrebbe interessare

02 03 2005
Link copiato negli appunti