IDF/ Intel e il PC consapevole

Il gigante dei chip ha svelato alcuni dettagli su una futura versione server del Pentium M e su alcuni nuovi chip multi-core. E ha parlato di PC più intelligenti e... sicuri
Il gigante dei chip ha svelato alcuni dettagli su una futura versione server del Pentium M e su alcuni nuovi chip multi-core. E ha parlato di PC più intelligenti e... sicuri


San Francisco (USA) – Nel corso dell’ultima giornata dell’Intel Developer Forum di San Francisco, la mamma del Pentium ha svelato alcuni dettagli sulle sue prossime piattaforme aziendali, sulla futura generazione di PC “intelligenti” e su altre tecnologie e chip che faranno capolino sul mercato entro la fine dell’attuale decennio.

Come nel settore consumer, anche in quello aziendale Intel sta lavorando per migliorare il rapporto tra prestazioni e consumi dei chip, inoltre sta puntando molte delle sue carte sullo sviluppo di tecnologie embedded da integrare nelle piattaforme PC e nella realizzazione di soluzioni basate sul concetto di seamless collaboration , ovvero la possibilità di collaborare indifferentemente da postazioni, dispositivi e luoghi diversi.

“Gli IT manager devono trovare un equilibrio tra l’incremento delle prestazioni dei sistemi informatici da una parte, e dall’altra l’aumento dei consumi energetici, le preoccupazioni legate alla manageability e le spese legate all’occupazione degli spazi”, ha spiegato Intel. “Nei datacenter, i costi energetici e di climatizzazione pesano in maniera significativa sul total cost of ownership (TCO, costo complessivo di possesso, NdR). Le aziende misurano sempre più le funzionalità di una piattaforma in termini di prestazioni per watt consumati “.

Il big di Santa Clara ha ribadito che le architetture multi-core, alla base di tutte le sue future generazioni di processori per server, desktop e notebook, permetteranno di spingere le performance delle CPU riducendo consumi ed emissione di calore.

Tra i primi processori per server basati sull’architettura a basso consumo del Pentium M vi sarà Sossaman , indirizzato ai server rack e blade studiati per gli spazi ridotti. Questo chip, la cui uscita sul mercato è prevista per la prima metà del prossimo anno, si baserà su Yonah , l’imminente processore mobile dual-core che debutterà nel settore dei notebook thin and light all’inizio del prossimo anno. Sossaman costituisce inoltre un elemento chiave della roadmap di Intel per le telecomunicazioni, un segmento nel quale l’efficienza energetica è cruciale.

Sossaman potrà far girare esclusivamente codice a 32 bit e avrà un consumo massimo di 31 watt, dunque di poco superiore a quello degli attuali Pentium M più veloci.

Nella roadmap dei processori server di Intel ha fatto poi capolino Dunnington , successore di quel Whitefield che nel 2007 porterà per la prima volta all’interno della famiglia di processori Xeon MP un’architettura a quattro core. Ci si aspetta che anche Dunnington, come il suo predecessore, includa almeno quattro core e integri un controller di memoria. Il futuro chip dovrebbe vedere la luce nel 2008, pertanto non è escluso che possa già adottare una tecnologia di processo a 45 nanometri (contro i 65 nanometri di Whitefield).

Il produttore californiano ha anche svelato l’intenzione di rilasciare presto versioni aggiornate dei Pentium 4 660 e 670 integranti la Virtualisation Technology: questi saranno così i primi chip desktop ad includere la tecnologia di virtualizzazione di Intel.

Durante l’IDF, Gelsinger ha poi parlato delle tecnologie embedded costruite direttamente all’interno delle piattaforme per ridurre i costi di manutenzione ed installazione dei PC. Le attuali funzionalità includono la tecnologia di diagnostica out-of-band, conosciuta come Active Management Technology , che è in grado di rilevare in automatico eventuali problematiche della piattaforma e consente ai manager IT di effettuare diagnosi e risolvere i problemi in remoto. La AMT farà la sua prima apparizione sui PC entro l’anno.

Intel sta inoltre collaborando con diversi sviluppatori di software ed OEM per migliorare la collaborazione aziendale . Tra le tecnologie a cui sta lavorando vi è il VoIP, di cui è impegnata a incrementare la qualità audio per renderla “due volte migliore di quella della tradizionale telefonia fissa”. In tale occasione Intel ha anche annunciato una partnership con Skype nella fornitura di applicazioni VoIP sulle proprie piattaforme.

“Le piattaforme multi-core sono fondamentali per abilitare questi nuovi impieghi della tecnologia e fornire la potenza per le funzionalità IT Embedded”, ha dichiarato Intel.

Gelsinger ha inoltre posto l’accento sulla crescente penetrazione delle piattaforme server basate su Itanium nel segmento di mercato di fascia alta e sulle evoluzioni rappresentate dall’ultima generazione del suo processorone, noto con il nome in codice Montecito .

“Gli OEM e gli sviluppatori hanno accolto bene la famiglia Itanium: sette importanti OEM attualmente offrono delle piattaforme e sono disponibili oltre 4.500 applicazioni e tool informatici”, ha affermato Gelsinger. “Le vendite del processore Itanium 2 sono aumentate del 170% dal primo trimestre del 2004 al primo trimestre del 2005”.

Intel ha poi tenuto una dimostrazione su di un nuovo sistema di localizzazione per Wi-Fi , alternativo al GPS, che a suo dire fornisce una posizione assai più accurata di quella fornita dalle tradizionali tecniche di triangolazione. La nuova tecnologia, chiamata Precision Location Technology (PLT), verrà sottoposta all’analisi del gruppo di lavoro IEEE 802.11 per l’eventuale inclusione nell’omonima famiglia di standard per le WLAN.


All’IDF Intel ha illustrato il suo programma di ricerca a lungo termine finalizzato a rendere i prodotti elettronici più intelligenti (ma forse sarebbe meglio dire “meno stupidi”), più sicuri e in grado di adeguarsi alle modalità con cui gli utenti di tutto il mondo li usano. Il chipmaker di Santa Clara sostiene che queste tecnologie di piattaforma, dette user-aware saranno utilizzate per costruire sistemi “capaci di rispondere in modo intuitivo agli utenti e alle loro esigenze in continua evoluzione”.

Justin Rattner, senior fellow di Intel e direttore del Corporate Technology Group, ha spiegato che gli attuali prodotti elettronici quasi non “sanno” come vengono utilizzati, chi li utilizza o quali finalità ha l’utente, a meno che l’utente stesso non impartisca loro istruzioni passo dopo passo.

“È frustrante pensare quante cose devono fare gli utenti oggi per utilizzare e gestire la tecnologia di cui dispongono”, ha affermato Rattner. “Il futuro dell’elettronica sarà guidato dall’esigenza di individuare modalità più semplici e intuitive di relazionarsi con le tecnologie, che a loro volta aiutano gli utenti a fare ciò che vogliono. Questo obiettivo, tuttavia, richiederà una nuova generazione di tecnologie di piattaforma user-aware.

“Una piattaforma user-aware – ha continuato Rattner- sarà un dispositivo che fa da sé, sa chi siamo, dove siamo e cerca di anticipare ciò che intendiamo fare . Sarà necessaria una capacità sensoriale digitale perché il dispositivo percepisca il luogo nel quale si trova e ciò che sta eseguendo. Saranno inoltre richiesti nuovi livelli di intelligenza perché il dispositivo comprenda le nostre necessità e collabori con altri dispositivi elettronici, in modo da agire per nostro conto senza danneggiare il processo”.

Per aumentare “l’intelligenza” delle future piattaforme di computing occorreranno però chip sempre più potenti e, soprattutto, capaci di elaborare simultaneamente un gran numero di task. A tal proposito, Intel prevede di mettere decine o anche centinaia di core di elaborazione a basso consumo all’interno di un singolo processore. Ciascun chip sarà in grado di attribuire in modo dinamico compiti specifici quali comandi relativi a visione, ascolto, sicurezza di rete, gioco e comprensione, a singoli core o cluster di core di elaborazione con la memoria e la larghezza di banda necessarie. Queste future piattaforme utilizzeranno un software di virtualizzazione per porre barriere protettive intorno alla porzione di risorse di calcolo dedicata a ciascun compito affinché venga eseguito al meglio, senza interferire con altre applicazioni.

Le piattaforme user-aware utilizzeranno un nuovo livello di intelligenza per gestire task e fonti di input multipli (video per visione, audio per ascolto e parlato, sensori per il tatto, archiviazione per il ricordo, rete e radio per il collegamento a Internet e ad altri dispositivi), e semplificarci la vita. Per illustrare questo punto, Rattner ha mostrato un progetto di ricerca denominato Diamond , un’applicazione per una ricerca di immagini più intuitiva attualmente in fase di sviluppo da parte dei ricercatori di Intel e della Carnegie Mellon University di Pittsburgh.

“Immaginiamo se tutte le pagine di tutti di libri di medicina della biblioteca del Congresso cadessero a terra e dovessimo cercarvi una particolare immagine di una cellula cancerosa. Nessun nome di file, nessuna cartella, solo un’enorme quantità di immagini: ciò significa cercare dati non indicizzati”, ha affermato Rattner. “Eseguito su diversi computer contemporaneamente, Diamond si avvale dell’evoluzione della computer vision e del machine learning (due branche della ricerca sull’intelligenza artificiale, NdR) per realizzare una ricerca dati esattamente come la effettuerebbe una persona , prima studiando l’aspetto dell’immagine – forma, colore, contenuti – e quindi individuando le immagini più simili. Si tratta di un tentativo iniziale di fare per i dati complessi quanto i fogli di calcolo hanno fatto per i numeri.”

Per essere in grado di “fare da sé”, una piattaforma user-aware deve percepire dove si trova e quindi rispondere a minacce e problemi che rischiano di comprometterne il funzionamento. A questo fine, Intel sta studiando l’utilizzo di tecnologie a sensori abbinate a una logica dedicata all’interno dei sistemi. Un esempio è dato dall’installazione di sensori di calore all’interno dei server, per il monitoraggio del surriscaldamento. Possono avviare la riallocazione intelligente dei carichi di lavoro tra centinaia di sistemi all’interno di un data center, evitando la perdita dei dati o guasti di sistema.

Rattner ha dimostrato come l’incorporazione di tecnologie di network awareness nei singoli dispositivi può essere utilizzata per fermare gli attacchi dei virus quando viene infettato il primo sistema. Le aggressioni dei virus possono propagarsi per un’intera rete passando da un sistema all’altro in modo più rapido di quanto gli utenti non riescano fisicamente a rispondere. Circuit Breaker è un progetto di ricerca di Intel finalizzato a fermare la propagazione di nuovi virus, abilitando ciascun dispositivo al monitoraggio intelligente della salute del suo traffico di rete. Circuit Breaker ricerca anomalie nella gamma dei comportamenti della rete di sistema e isola il sistema dalla rete al primo segnale di attacco. In questo senso, i sistemi di “autosorveglianza” possono costituire un’ultima linea difensiva contro la propagazione dei virus.

Forse la sfida più difficile da affrontare nella costruzione di sistemi in grado di rispondere in modo intuitivo alle nostre necessità sempre in evoluzione è fare in modo che capiscano il contesto: il “chi”, “cosa” e “dove” della nostra vita. La tecnologia di elaborazione location-aware può aiutare i sistemi a rispondere in modo più intuitivo alle richieste, come ad esempio il download di diversi tipi di musica nell’auto di famiglia, in cucina o sul cellulare a seconda dei gusti dell’utente. Oppure, può avvertire un lavoratore della necessità di effettuare un particolare intervento di manutenzione su apparecchiature diverse in base alla vicinanza, alle condizioni di sicurezza e al livello di addestramento del lavoratore stesso. Inoltre, il tutto dovrebbe avvenire nel rispetto della privacy .

Link copiato negli appunti

Ti potrebbe interessare

28 08 2005
Link copiato negli appunti