Il nuovo schermo e-paper a colori di E Ink si chiama Triton , e a dispetto della varietà di versioni che verranno rese disponibili ai produttori (display a 5, 7 o 10 pollici) è molto probabile la sua scarsa presa su un mercato ancora legato al bianco e nero di Kindle e compagnia. Non che il bianco e nero sia meglio del colore, ma piuttosto è Triton a non avere le caratteristiche adeguate per l’applicazione diffusa su e-reader , tablet e quant’altro.
Sia come sia, con Triton gli e-reader entrano nell’ era del colore , ed E Ink riafferma la sua leadership nel settore: il nuovo display è in grado di visualizzare “migliaia di colori”, nella fattispecie 4096, con una durata della batteria comparabile a quella degli e-reader B&W e una notevole nitidezza. In contrasto, la tecnologia Triton mette in mostra immagini molto desaturate che sfigurano al confronto dei pannelli LCD/OLED impiegati sugli odierni schermi a colori.
Havon Technology , il produttore cinese che per primo adotterà gli schermi Triton di E Ink, dice di essere prima di tutto interessato al mercato asiatico. Eventuali commercializzazioni negli Stati Uniti e altrove sono nel novero delle possibilità, e nel caso Havon sbarcasse negli USA si troverebbe probabilmente a essere l’unica a offrire una tecnologia di e-paper a colori in anticipo sui tempi .
In molti sono interessati a proporre un display e-reader in grado di andare oltre il tono monocromatico del bianco e nero, e già nel corso dello scorso CES fu mostrato un prototipo basato sulla piattaforma Skiff . Anche in quel caso il confronto con la qualità grafica di giornali, rivista, LCD ed e-reader in bianco e nero non giocò particolarmente a favore della novità a colori.
Alfonso Maruccia
-
Una cosa non mi è chiara
Dal 2011 in poi amd ha intenzione di sviluppare solo APU o continuerà lo sviluppo separato di CPU e GPU. Fusion mi sembra promettente ma in ambito desktop non è particolarmente invitante.Invece in ambito netbook/notebook Intel ha il vantaggio del mercato ma sarei deluso se Fusion non spazzasse via Sandy Bridge in termini prestazionali visto che AMD ha al suo interno anche la tecnologia ATIm mentre le GPU Intel sono tristemente note per le prestazioni scadenti e per l'essere praticamente inutili in ambito 3d.cesRe: Una cosa non mi è chiara
Sicuramente AMD continuerà a sviluppare GPU discrete. La gpu integrata della alu la vedo bene per un utilizzo GPGPU oppure in ambiti dove le prestazioni grafiche pure non sono importanti.Ora voglio fare una considerazione personale assurda: secondo voi Apple sarà interessata a questa nuova architettura per i MAC? Considerando1) molti sistemi Apple non hanno una GPU discreta.2) Nvidia non può più produrre GPU integrate per i nuovi proXXXXXri Intel, ma solo questa lo può fare.3) Le GPU Intel notoriamente "fanno schifo".4) Apple cerca da sempre di non legarsi ad un unico fornitore (soprattutto se questo ha più potere contrattuale di Apple).5) AMD farebbe carte false per fornire Apple (per Intel il mercato Apple è marginale mentre per AMD sarebbe quasi il principale).ThescareRe: Una cosa non mi è chiara
Tutti i mac futuri, e forse anche i pc futuri che notoriamente seguono le orme di apple, adotteranno consistentemente entrambe le soluzioni, un po' come fanno gia' adesso in alcuni modelli e limitatamente ad alcune situazioni, utilizzando grafica integrata e discreta contemporaneamente sia sinergicamente che complementariamente, questa sembra la strada.Per quanto riguarda apple-intel-amd, e' noto che apple lascia le porte aperte (senza miopia) , si e' gia' parlato piu' volte di amd e le soluzioni grafiche sono da sempre uno scoglio (anche se superato); sui mac potrebbero passare non solo al fornitore concorrenziale amd per motivi di mercato,di integrazione grafica e per la forte customizzazione che richiede apple (raramente accettata da intel), ma anche usare entrambi su linee di prodotti diversi.cats in coolRe: Una cosa non mi è chiara
- Scritto da: Thescare> La gpu integrata della alu la vedo bene> per un utilizzo GPGPU oppure in ambiti dove le> prestazioni grafiche pure non sono> importanti.XXXXXXX colossale... se si integra cpu e gpu le prestazioni aumentano perchè non ci sono le latenze dei bus> Ora voglio fare una considerazione personale> assurda: secondo voi Apple sarà interessata a> questa nuova architettura per i MAC?sicuramente siche schifoRe: Una cosa non mi è chiara
- Scritto da: che schifo> - Scritto da: Thescare> > La gpu integrata della alu la vedo bene> > per un utilizzo GPGPU oppure in ambiti dove le> > prestazioni grafiche pure non sono> > importanti.> XXXXXXX colossale... se si integra cpu e gpu le> prestazioni aumentano perchè non ci sono le> latenze dei> busOk, ma pensi che integreranno GPU potenti come quelle discrete? Sai quanto scalda e consuma una Radeon hd discreta?ThescareRe: Una cosa non mi è chiara
amd è ora che dia una svegliata facendo ste robe nuove, se no sarebbe già fallita, coi suoi proXXXXXri bacati e caloriferi... al momento deve ringraziare ati se non si è ancora ribaltata...che schifosecondo chipmaker al mondo?
http://en.wikipedia.org/wiki/Semiconductor_sales_leaders_by_year#Ranking_for_year_2009nomeRe: secondo chipmaker al mondo?
Quella che tu hai preso è la classifica dei produttori di semiconduttori....Samsung - Toshiba - STM etc. etc. non sono chipmaker...I chipmaker si può quasi dire che sono 2... Intel e AMD... soprattutto per l'ambito consumer....Poi ci sono i vari SPARC, PowerPC, ARM.... etcIO solo IORe: secondo chipmaker al mondo?
- Scritto da: IO solo IO> Quella che tu hai preso è la classifica dei> produttori di> semiconduttori....> Samsung - Toshiba - STM etc. etc. non sono> chipmaker...? certo che sono chipmaker. Perchè non dovrebbero esserlo> > I chipmaker si può quasi dire che sono 2... Intel> e AMD... soprattutto per l'ambito> consumer....AMD non produce più neanche direttamente i suoi chip...> > Poi ci sono i vari SPARC, PowerPC, ARM.... etcSPARC (Sun/Oracle) e PowerPC (Motorola e IBM) sono nomi di architetture (come x86). ARM è sia il nome di un'architettura che della società che li progetta.ThescareRe: secondo chipmaker al mondo?
si beh.... e argomentare?che schifoRe: secondo chipmaker al mondo?
- Scritto da: IO solo IO> Quella che tu hai preso è la classifica dei> produttori di> semiconduttori....> Samsung - Toshiba - STM etc. etc. non sono> chipmaker...> > I chipmaker si può quasi dire che sono 2... Intel> e AMD... soprattutto per l'ambito> consumer....Pensa che io ho sempre detto 'chip di memoria', va be' mi sbagliavo, le memorie non sono chip. Però come la mettiamo con i chip dei telefoni ? E con i chip embedded ?-----------------------------------------------------------Modificato dall' autore il 11 novembre 2010 14.28-----------------------------------------------------------guastRe: secondo chipmaker al mondo?
- Scritto da: guast> Pensa che io ho sempre detto 'chip di memoria',> va be' mi sbagliavo, le memorie non sono chip.> Però come la mettiamo con i chip dei telefoni ? E> con i chip embedded> ?alla fine amd ha il grosso vantaggio di includere ati nel suo fatturato, altrimenti con quei 4 proXXXXXri all'anno che vende sarebbe già finita nel dimenticatoio...che schifoRe: secondo chipmaker al mondo?
- Scritto da: nome> http://en.wikipedia.org/wiki/Semiconductor_sales_lQuello linkato e' il ranking 2009 delle quote di mercato delle semiconductor companies. NON e' la classifica dei produttori di CPU per computers.Infatti per esempio la seconda semiconductor company mondiale che e' Samsung, monta Intel nei suoi PC.. forse la parola "chipmaker" e' un po generica;si capisce che si parla di CPU e non di chip integrati generici, ma il redattore potrebbe senz'altro cambiare il termine a scanso di equivoci...passo e chiudo-cats in coolBASTA CORE...ora RAM
con un dual socket (40 core) è la RAM che diventa la risorsa critica. io uso nel mio datacenter la virtualizzazione...ma conuna soluzione così ricca di core mi servono dei server che supportino mooooolta ram...sennò le mie virtual machine soffrono di carenza di ram.....(cosa che i moderni S.O. e applicativi ne son ghiotti !!!!)MARCO DI VERONARe: BASTA CORE...ora RAM
Nel nostro centro di calcolo abbiamo ordinato un HP con otto proXXXXXri (da otto core) e 2 Tb di RAM... costa ma ci sono sistemi a dualboard che supportano molta RAM...ProchRe: BASTA CORE...ora RAM
e che ci fate? blueray-rip di pornazzi?? (rotfl)(rotfl)che schifoRe: BASTA CORE...ora RAM
- Scritto da: MARCO DI VERONA> con un dual socket (40 core) è la RAM che diventa> la risorsa critica. io uso nel mio datacenter la> virtualizzazione...ma conuna soluzione così ricca> di core mi servono dei server che supportino> mooooolta ram...sennò le mie virtual machine> soffrono di carenza di ram.....(cosa che i> moderni S.O. e applicativi ne son ghiotti> !!!!)La soluzione da adottare in un futuro prossimo vicino, secondo alcuni ricercatori, e' : RAM e CORES fusi in una cosa sola. Ogni Ram avra' il suo Core, o se vi suona meglio, ogni Core avra' la sua Ram..cats in coolRe: BASTA CORE...ora RAM
un po' come i chippetti arm che hanno nand e ram integrata nel soc?(spero di non aver detto una boiata)SuricatoRe: BASTA CORE...ora RAM
- Scritto da: cats in cool> La soluzione da adottare in un futuro prossimo> vicino, secondo alcuni ricercatori, e' : RAM e> CORES fusi in una cosa sola.> > Ogni Ram avra' il suo Core, o se vi suona meglio,> ogni Core avra' la sua> Ram..eh eh... in pratica dopo varie evoluzioni architetturali per condividere proXXXXXri e ram si tornerebbe agli albori dell'informatica... un core e una ram... però si è miniaturizzato tutto così tanto che si potranno mettere (concettualmente) più computer in un chip. Buffo, no?Comunque non credo che avverrà... la virtualizzazione richede la condivisione sia di core che di ram, per allocare dinamicamente ram e cpu alle macchine virtuali a seconda delle loro esigenze in tempo reale, per cui mi pare strano che un'architettura con la ram accoppiata in maniera fissa a ogni core possa essere efficiente in questo contesto. Anche senza tirare in ballo la virtualizzazione, il sistema operativo deve essere libero di muovere i thread fra i core e forse swappare anche la memoria sarebbe troppo oneroso, no?il signor rossiRe: BASTA CORE...ora RAM
e va beh, di già che ci siamo mettiamoci dentro pure una memoria di massa ssd e la gpu, poi se non prende fuoco dobbiamo solo pregare che non si rompa qualcosa se no si butta via tutto... ottima idea, bravo così... :-oche schifoRe: BASTA CORE...ora RAM
non dire XXXXXXX bello... il collo di bottiglia sono i dischi... da quello che scrivi sembra di informatica capisci poco o nulla...che schifoRe: BASTA CORE...ora RAM
- Scritto da: MARCO DI VERONA> con un dual socket (40 core) è la RAM che diventa> la risorsa critica.Certo.> io uso nel mio datacenter la> virtualizzazione...ma conuna soluzione così ricca> di core mi servono dei server che supportino> mooooolta ram...sennò le mie virtual machine> soffrono di carenza di ram.....(cosa che i> moderni S.O. e applicativi ne son ghiotti> !!!!)Be', questo problema si risolve con i S.O. a 64bit.Fino a 32 bit puoi indirizzare fino a circa 4GB di ram, con i 64 arrivi a 16EB, vale a dire 17.179.869.184 GB.Credo sia sufficiente.GTFSGuybrush FuorisedeRe: BASTA CORE...ora RAM
Io invece vedo un vincolo sulla banda di acXXXXX alla RAM. Con 80 e più core, chissà quanta ne serve! Sicuramente ci sarà un alto rischio di latenzabubuGrazie, il tuo commento è in fase di approvazioneGrazie, il tuo commento è stato pubblicatoCommento non inviatoGrazie per esserti iscritto alla nostra newsletterOops, la registrazione alla newsletter non è andata a buon fine. Riprova.Leggi gli altri commentiPubblicato il 11 nov 2010Ti potrebbe interessare