E-paper a colori, binomio da perfezionare

La tecnologia di E Ink in arrivo sul mercato fa parlare molto di sé, ma altrettanti sono i dubbi sulla sua validità commerciale. Riviste e quotidiani su e-paper resteranno in bianco e nero ancora per un pò

Roma – Il nuovo schermo e-paper a colori di E Ink si chiama Triton , e a dispetto della varietà di versioni che verranno rese disponibili ai produttori (display a 5, 7 o 10 pollici) è molto probabile la sua scarsa presa su un mercato ancora legato al bianco e nero di Kindle e compagnia. Non che il bianco e nero sia meglio del colore, ma piuttosto è Triton a non avere le caratteristiche adeguate per l’applicazione diffusa su e-reader , tablet e quant’altro.

Sia come sia, con Triton gli e-reader entrano nell’ era del colore , ed E Ink riafferma la sua leadership nel settore: il nuovo display è in grado di visualizzare “migliaia di colori”, nella fattispecie 4096, con una durata della batteria comparabile a quella degli e-reader B&W e una notevole nitidezza. In contrasto, la tecnologia Triton mette in mostra immagini molto desaturate che sfigurano al confronto dei pannelli LCD/OLED impiegati sugli odierni schermi a colori.

Havon Technology , il produttore cinese che per primo adotterà gli schermi Triton di E Ink, dice di essere prima di tutto interessato al mercato asiatico. Eventuali commercializzazioni negli Stati Uniti e altrove sono nel novero delle possibilità, e nel caso Havon sbarcasse negli USA si troverebbe probabilmente a essere l’unica a offrire una tecnologia di e-paper a colori in anticipo sui tempi .

In molti sono interessati a proporre un display e-reader in grado di andare oltre il tono monocromatico del bianco e nero, e già nel corso dello scorso CES fu mostrato un prototipo basato sulla piattaforma Skiff . Anche in quel caso il confronto con la qualità grafica di giornali, rivista, LCD ed e-reader in bianco e nero non giocò particolarmente a favore della novità a colori.

Alfonso Maruccia

La tua email sarà utilizzata per comunicarti se qualcuno risponde al tuo commento e non sarà pubblicato. Dichiari di avere preso visione e di accettare quanto previsto dalla informativa privacy

  • Bastard Inside scrive:
    Chippetto amaro?
    Per sbaglio avevo letto "Brazorf" :-P
  • stylus753 scrive:
    USB 3.0 ?
    Perché manca la porta USB 3.0?
  • MARCO DI VERONA scrive:
    BASTA CORE...ora RAM
    con un dual socket (40 core) è la RAM che diventa la risorsa critica. io uso nel mio datacenter la virtualizzazione...ma conuna soluzione così ricca di core mi servono dei server che supportino mooooolta ram...sennò le mie virtual machine soffrono di carenza di ram.....(cosa che i moderni S.O. e applicativi ne son ghiotti !!!!)
    • Proch scrive:
      Re: BASTA CORE...ora RAM
      Nel nostro centro di calcolo abbiamo ordinato un HP con otto proXXXXXri (da otto core) e 2 Tb di RAM... costa ma ci sono sistemi a dualboard che supportano molta RAM...
    • cats in cool scrive:
      Re: BASTA CORE...ora RAM
      - Scritto da: MARCO DI VERONA
      con un dual socket (40 core) è la RAM che diventa
      la risorsa critica. io uso nel mio datacenter la
      virtualizzazione...ma conuna soluzione così ricca
      di core mi servono dei server che supportino
      mooooolta ram...sennò le mie virtual machine
      soffrono di carenza di ram.....(cosa che i
      moderni S.O. e applicativi ne son ghiotti
      !!!!)La soluzione da adottare in un futuro prossimo vicino, secondo alcuni ricercatori, e' : RAM e CORES fusi in una cosa sola. Ogni Ram avra' il suo Core, o se vi suona meglio, ogni Core avra' la sua Ram..
      • Suricato scrive:
        Re: BASTA CORE...ora RAM
        un po' come i chippetti arm che hanno nand e ram integrata nel soc?(spero di non aver detto una boiata)
      • il signor rossi scrive:
        Re: BASTA CORE...ora RAM
        - Scritto da: cats in cool
        La soluzione da adottare in un futuro prossimo
        vicino, secondo alcuni ricercatori, e' : RAM e
        CORES fusi in una cosa sola.

        Ogni Ram avra' il suo Core, o se vi suona meglio,
        ogni Core avra' la sua
        Ram..eh eh... in pratica dopo varie evoluzioni architetturali per condividere proXXXXXri e ram si tornerebbe agli albori dell'informatica... un core e una ram... però si è miniaturizzato tutto così tanto che si potranno mettere (concettualmente) più computer in un chip. Buffo, no?Comunque non credo che avverrà... la virtualizzazione richede la condivisione sia di core che di ram, per allocare dinamicamente ram e cpu alle macchine virtuali a seconda delle loro esigenze in tempo reale, per cui mi pare strano che un'architettura con la ram accoppiata in maniera fissa a ogni core possa essere efficiente in questo contesto. Anche senza tirare in ballo la virtualizzazione, il sistema operativo deve essere libero di muovere i thread fra i core e forse swappare anche la memoria sarebbe troppo oneroso, no?
      • che schifo scrive:
        Re: BASTA CORE...ora RAM
        e va beh, di già che ci siamo mettiamoci dentro pure una memoria di massa ssd e la gpu, poi se non prende fuoco dobbiamo solo pregare che non si rompa qualcosa se no si butta via tutto... ottima idea, bravo così... :-o
    • che schifo scrive:
      Re: BASTA CORE...ora RAM
      non dire XXXXXXX bello... il collo di bottiglia sono i dischi... da quello che scrivi sembra di informatica capisci poco o nulla...
    • Guybrush Fuorisede scrive:
      Re: BASTA CORE...ora RAM
      - Scritto da: MARCO DI VERONA
      con un dual socket (40 core) è la RAM che diventa
      la risorsa critica.Certo.
      io uso nel mio datacenter la
      virtualizzazione...ma conuna soluzione così ricca
      di core mi servono dei server che supportino
      mooooolta ram...sennò le mie virtual machine
      soffrono di carenza di ram.....(cosa che i
      moderni S.O. e applicativi ne son ghiotti
      !!!!)Be', questo problema si risolve con i S.O. a 64bit.Fino a 32 bit puoi indirizzare fino a circa 4GB di ram, con i 64 arrivi a 16EB, vale a dire 17.179.869.184 GB.Credo sia sufficiente.GTFS
    • bubu scrive:
      Re: BASTA CORE...ora RAM
      Io invece vedo un vincolo sulla banda di acXXXXX alla RAM. Con 80 e più core, chissà quanta ne serve! Sicuramente ci sarà un alto rischio di latenza
  • nome scrive:
    secondo chipmaker al mondo?
    http://en.wikipedia.org/wiki/Semiconductor_sales_leaders_by_year#Ranking_for_year_2009
    • IO solo IO scrive:
      Re: secondo chipmaker al mondo?
      Quella che tu hai preso è la classifica dei produttori di semiconduttori....Samsung - Toshiba - STM etc. etc. non sono chipmaker...I chipmaker si può quasi dire che sono 2... Intel e AMD... soprattutto per l'ambito consumer....Poi ci sono i vari SPARC, PowerPC, ARM.... etc
      • Thescare scrive:
        Re: secondo chipmaker al mondo?
        - Scritto da: IO solo IO
        Quella che tu hai preso è la classifica dei
        produttori di
        semiconduttori....
        Samsung - Toshiba - STM etc. etc. non sono
        chipmaker...? certo che sono chipmaker. Perchè non dovrebbero esserlo

        I chipmaker si può quasi dire che sono 2... Intel
        e AMD... soprattutto per l'ambito
        consumer....AMD non produce più neanche direttamente i suoi chip...

        Poi ci sono i vari SPARC, PowerPC, ARM.... etcSPARC (Sun/Oracle) e PowerPC (Motorola e IBM) sono nomi di architetture (come x86). ARM è sia il nome di un'architettura che della società che li progetta.
        • che schifo scrive:
          Re: secondo chipmaker al mondo?
          si beh.... e argomentare?
          • Thescare scrive:
            Re: secondo chipmaker al mondo?
            - Scritto da: che schifo
            si beh.... e argomentare?Cosa dovrei argomentare? Che Samsung e STM producono proXXXXXri?O che dire che Sparc e Power sono chipmaker è come dire che utilitaria è una marca di automobili?
      • guast scrive:
        Re: secondo chipmaker al mondo?
        - Scritto da: IO solo IO
        Quella che tu hai preso è la classifica dei
        produttori di
        semiconduttori....
        Samsung - Toshiba - STM etc. etc. non sono
        chipmaker...

        I chipmaker si può quasi dire che sono 2... Intel
        e AMD... soprattutto per l'ambito
        consumer....Pensa che io ho sempre detto 'chip di memoria', va be' mi sbagliavo, le memorie non sono chip. Però come la mettiamo con i chip dei telefoni ? E con i chip embedded ?-----------------------------------------------------------Modificato dall' autore il 11 novembre 2010 14.28-----------------------------------------------------------
        • che schifo scrive:
          Re: secondo chipmaker al mondo?
          - Scritto da: guast
          Pensa che io ho sempre detto 'chip di memoria',
          va be' mi sbagliavo, le memorie non sono chip.
          Però come la mettiamo con i chip dei telefoni ? E
          con i chip embedded
          ?alla fine amd ha il grosso vantaggio di includere ati nel suo fatturato, altrimenti con quei 4 proXXXXXri all'anno che vende sarebbe già finita nel dimenticatoio...
    • cats in cool scrive:
      Re: secondo chipmaker al mondo?
      - Scritto da: nome
      http://en.wikipedia.org/wiki/Semiconductor_sales_lQuello linkato e' il ranking 2009 delle quote di mercato delle semiconductor companies. NON e' la classifica dei produttori di CPU per computers.Infatti per esempio la seconda semiconductor company mondiale che e' Samsung, monta Intel nei suoi PC.. forse la parola "chipmaker" e' un po generica;si capisce che si parla di CPU e non di chip integrati generici, ma il redattore potrebbe senz'altro cambiare il termine a scanso di equivoci...passo e chiudo-
  • ces scrive:
    Una cosa non mi è chiara
    Dal 2011 in poi amd ha intenzione di sviluppare solo APU o continuerà lo sviluppo separato di CPU e GPU. Fusion mi sembra promettente ma in ambito desktop non è particolarmente invitante.Invece in ambito netbook/notebook Intel ha il vantaggio del mercato ma sarei deluso se Fusion non spazzasse via Sandy Bridge in termini prestazionali visto che AMD ha al suo interno anche la tecnologia ATIm mentre le GPU Intel sono tristemente note per le prestazioni scadenti e per l'essere praticamente inutili in ambito 3d.
    • Thescare scrive:
      Re: Una cosa non mi è chiara
      Sicuramente AMD continuerà a sviluppare GPU discrete. La gpu integrata della alu la vedo bene per un utilizzo GPGPU oppure in ambiti dove le prestazioni grafiche pure non sono importanti.Ora voglio fare una considerazione personale assurda: secondo voi Apple sarà interessata a questa nuova architettura per i MAC? Considerando1) molti sistemi Apple non hanno una GPU discreta.2) Nvidia non può più produrre GPU integrate per i nuovi proXXXXXri Intel, ma solo questa lo può fare.3) Le GPU Intel notoriamente "fanno schifo".4) Apple cerca da sempre di non legarsi ad un unico fornitore (soprattutto se questo ha più potere contrattuale di Apple).5) AMD farebbe carte false per fornire Apple (per Intel il mercato Apple è marginale mentre per AMD sarebbe quasi il principale).
      • cats in cool scrive:
        Re: Una cosa non mi è chiara
        Tutti i mac futuri, e forse anche i pc futuri che notoriamente seguono le orme di apple, adotteranno consistentemente entrambe le soluzioni, un po' come fanno gia' adesso in alcuni modelli e limitatamente ad alcune situazioni, utilizzando grafica integrata e discreta contemporaneamente sia sinergicamente che complementariamente, questa sembra la strada.Per quanto riguarda apple-intel-amd, e' noto che apple lascia le porte aperte (senza miopia) , si e' gia' parlato piu' volte di amd e le soluzioni grafiche sono da sempre uno scoglio (anche se superato); sui mac potrebbero passare non solo al fornitore concorrenziale amd per motivi di mercato,di integrazione grafica e per la forte customizzazione che richiede apple (raramente accettata da intel), ma anche usare entrambi su linee di prodotti diversi.
      • che schifo scrive:
        Re: Una cosa non mi è chiara
        - Scritto da: Thescare
        La gpu integrata della alu la vedo bene
        per un utilizzo GPGPU oppure in ambiti dove le
        prestazioni grafiche pure non sono
        importanti.XXXXXXX colossale... se si integra cpu e gpu le prestazioni aumentano perchè non ci sono le latenze dei bus
        Ora voglio fare una considerazione personale
        assurda: secondo voi Apple sarà interessata a
        questa nuova architettura per i MAC?sicuramente si
        • Thescare scrive:
          Re: Una cosa non mi è chiara
          - Scritto da: che schifo
          - Scritto da: Thescare

          La gpu integrata della alu la vedo bene

          per un utilizzo GPGPU oppure in ambiti dove le

          prestazioni grafiche pure non sono

          importanti.
          XXXXXXX colossale... se si integra cpu e gpu le
          prestazioni aumentano perchè non ci sono le
          latenze dei
          busOk, ma pensi che integreranno GPU potenti come quelle discrete? Sai quanto scalda e consuma una Radeon hd discreta?
    • che schifo scrive:
      Re: Una cosa non mi è chiara
      amd è ora che dia una svegliata facendo ste robe nuove, se no sarebbe già fallita, coi suoi proXXXXXri bacati e caloriferi... al momento deve ringraziare ati se non si è ancora ribaltata...
Chiudi i commenti