Plextor infila SATA nel drive DVD

Il produttore ha presentato un masterizzatore, uno dei primissimi drive ottici al mondo dotato della giovane interfaccia Serial ATA, fino ad oggi impiegata quasi esclusivamente per gli hard disk


Roma – Plextor ha svelato il suo primo drive DVD, ed uno dei primi al mondo, provvisto della tecnologia Serial ATA. Quest’interfaccia, che ha fatto il suo ingresso sul mercato a bordo degli hard disk, caratterizza il nuovo modello di masterizzatore DVD PX-712SA.

Il PX-712SA è stato preannunciato all’epoca del lancio della versione Parallel ATA (E-IDE), il PX-712A , con cui condivide le caratteristiche tecniche: velocità di scrittura pari a 12x per i DVD+R, 4x per i DVD+/-RW, 8x per i DVD-R, 48x per i CD-R e 24x per i CD-RW; e velocità di lettura di 16x per i DVD e di 48x per i CD.

L’unità adotta 8 MB di buffer, le tecnologie Buffer Underrun Proof (CD), Lossless Linking (DVD+R/W) e Zero Link (DVD-R/W), la correzione degli errori PoweRec (Plextor Optimised Writing Error Reduction Control), la funzione Q-check (test errori C1/C2, test FE/TE, test Beta/Jitter e test PI/PO) per la verifica della qualità dei dischi, e la tecnologia GigaRec per la memorizzazione di un massimo di 1 GB di dati su CD-R da 99 minuti.

La tecnologia VariRec di Plextor permette di ottimizzare la qualità audio delle registrazioni tramite otto parametri preimpostati, mentre l’uso della funzione di formattazione in background consente di formattare i dischi mentre si aggiungono altri dati al disco da masterizzare. E per proteggere i dati personali è disponibile SecuRec, che permette di assegnare a file e cartelle una password d’accesso.

Il PX-712SA sarà disponibile da giugno al prezzo indicativo di 269 euro IVA inclusa.

C’è da dire che al momento sono ancora pochissimi i supporti DVD+R certificati per la velocità di scrittura 12x: fra quelli segnalati da Plextor lo scorso marzo vi sono Maxell, Ricoh e Taiyo Yuden.

La tua email sarà utilizzata per comunicarti se qualcuno risponde al tuo commento e non sarà pubblicato. Dichiari di avere preso visione e di accettare quanto previsto dalla informativa privacy

  • Anonimo scrive:
    Re: ATI? Non mi convince...
    - Scritto da: Anonimo

    - Scritto da: Anonimo

    Problemi con i driver ATI?????



    Ma che per caso hai linux sulla tua
    macchina?

    Guarda che per linux ci sono i driver e pure
    validi, mentre geffo non rilascia info a
    suufficienza per farli al melgio.I driver Nvidia su linux ci sono. :D
  • lkl scrive:
    Re: ATI? Non mi convince...
    l'ultima scheda ati che mi ha dato qualche preoccupazione minima è stata la fury maxx, quella coi due processori in parallelo... da allora, tutto è filato liscio.
  • Anonimo scrive:
    Re: Per la redazione
    Su Hwupgrade han recensito anche quella...
  • avvelenato scrive:
    Re: ATI? Non mi convince...
    - Scritto da: HotEngine
    Tutte le sk ATI che ho provato hanno sempre
    avuto delle rogne, o coi driver o
    chissà cos'altro e spesso con
    risultati prestazionali scadenti... NVidia,
    al contrario, non mi ha mai deluso...
    Quindi, per me, ATI=MAI PIU'.anche AMD ha avuto problemi. Ciò non toglie che adesso entrambe si siano sapute riconquistare la reputazione persa ;)te lo assicuro. parlo da utente (obbligato) nVidia. avvelenato legato alla nVidia per motivi estranei alla sua volontà :'(
  • avvelenato scrive:
    Re: Non vedo geffo-killer...
    - Scritto da: Anonimo
    ???
    Ma siamo impazziti?
    Ora che possiamo toglierci dalle ***** i
    catalyst e tornare a nvidia facciamo pure
    finta di sbagliare a leggere i benchmark?perché? chi te lo impedisce?nVidia è comunque un'ottima casa, la geforce6800 rimane una signora scheda. Se odi i catalyst prenditi la geforce6.8k. Ma non venire a dire che la GF6.8k sia migliore della Ati. Non vedo proprio dove e come e quando (apparte nell'openGl)
  • avvelenato scrive:
    Re: Non vedo geffo-killer...
    - Scritto da: Anonimo


    sì, ma tu hai visto l'analisi

    qualitativa dei pixel shaders?

    facile fare bench superfighi utilizzando

    solo 16bits (e a qualità
    scadente).



    provando a forzare sulla geffo la

    modalità a 32bits torna in testa
    Ati.

    Ok, non li hai visti.
    Vai su Anandtech e guarda.io ho letto la rece su hwupgrade e mi basta.http://www.hwupgrade.it/articoli/1013/15.htmlhttp://www.hwupgrade.it/articoli/1013/19.html
  • Anonimo scrive:
    La mia ATI Radeon
    8500 LE va benissimo !;)e me la tengo !Sul portatile ho la Mobility Radeon 9000, ottima !(provata con i giochi 3d ovviamente)
  • Anonimo scrive:
    Re: Ati batte Nvidia 10 a 1...
    - Scritto da: Anonimo
    non dire cavolate, il GeForce 6800 Ultra
    consuma "soli" 17 watt in più della
    nuova scheda ATiNo, il problema dei consumi è reale per Nvidia. Vai su hwupgrade e avrai due ottime recensioni delle schede di Nvidia e di ATI; si parla anche di quegli aspetti e potrai rendertene conto da solo. La scheda di ATI sembra, bisognerà poi vedere sul campo, un migliore nel complesso costituito da consumi-prestazioni, bisognerà vedere i costi ma anche lì i canadesi di solito sono meno esigenti. Nvidia supporta lo shader3, è superiore nell'OpenGl e sembra tecnologicamente persino troppo avanti al momento attuale. Comunque si tratta di due eccellenti prodotti.
  • Anonimo scrive:
    Re: ATI? Non mi convince...
    - Scritto da: Anonimo
    Problemi con i driver ATI?????

    Ma che per caso hai linux sulla tua macchina?Guarda che per linux ci sono i driver e pure validi, mentre geffo non rilascia info a suufficienza per farli al melgio.
  • Anonimo scrive:
    Re: Succhia
    prima di parlare guardati qualche recensione, e guarda i consumi di picco, non i comsuni medi che non hanno alcun senso... la GeForce 6800 Ultra consuma "solo" 17 watt in più della Ati X800XT.
  • Anonimo scrive:
    Re: ATI? Non mi convince...
    Problemi con i driver ATI?????Ma che per caso hai linux sulla tua macchina?
  • Anonimo scrive:
    Re: Ati batte Nvidia 10 a 1...
    non dire cavolate, il GeForce 6800 Ultra consuma "soli" 17 watt in più della nuova scheda ATi
  • HotEngine scrive:
    ATI? Non mi convince...
    Tutte le sk ATI che ho provato hanno sempre avuto delle rogne, o coi driver o chissà cos'altro e spesso con risultati prestazionali scadenti... NVidia, al contrario, non mi ha mai deluso... Quindi, per me, ATI=MAI PIU'.
  • Hyde scrive:
    Re: Ati batte Nvidia 10 a 1...
    - Scritto da: Anonimo
    Basti guardare il consumo di questi ultimi
    processori, che se nel caso del Radeon X800
    non si discosta di molto dai valori dei
    dispositivi analoghi, nel caso di Nvidia si
    avvicina al consumo di un microonde ( ~ 400
    Watt ! )fonti?
  • Anonimo scrive:
    Bla...bla...bla....
    I test delle case produttrici non sono minimamente credibili.è come le case automobilistiche che annunciano consumi di benzina irreali tipo "4lt / 100km" poi la compri e al massimo ci fai "6.5 lt /100 km".I test fatti da terze parti sono un pò più attendibili ma comunque pilotati. Ci sono troppe varibili che possono modificare la resa di una sk grafica anche a parità di hardware. Si può agire sia a livello hardware come settaggi della sk madre o frequenza del bus, che software come drivers, software utilizzato ecc...Questi test danno sopratutto una linea di massima ma vanno presi mooolto con le molle.
  • Anonimo scrive:
    Re: Per la redazione
    - Scritto da: Anonimo
    Da quanto si evince, pare che nvidia abbia
    confermato anche una nuova scheda basata su
    nv40, probabilmente sarà una edizione
    limitata (al momento, finchè non
    affinano il processo di produzione), e
    prenderà il nome di Geforce 6800
    Ultra Extreme, con frequenze core/ram
    maggiorate.E un 3° Molex di alimentazione non ce lo mettono? :D
  • Anonimo scrive:
    Re: Non vedo geffo-killer...

    sì, ma tu hai visto l'analisi
    qualitativa dei pixel shaders?
    facile fare bench superfighi utilizzando
    solo 16bits (e a qualità scadente).

    provando a forzare sulla geffo la
    modalità a 32bits torna in testa Ati.Ok, non li hai visti.Vai su Anandtech e guarda.
  • Anonimo scrive:
    Ati batte Nvidia 10 a 1...
    Basti guardare il consumo di questi ultimi processori, che se nel caso del Radeon X800 non si discosta di molto dai valori dei dispositivi analoghi, nel caso di Nvidia si avvicina al consumo di un microonde ( ~ 400 Watt ! )
  • Anonimo scrive:
    Re: Succhia
    - Scritto da: ParisDabar
    ..un sacco di risorse al vostro alimentatore La GeForce 6800 Ultra consuma 130 watt contro i 70 della Ati x800XT. Direi che ATI stavolta ha davvero messo nVidia in mutande. Chi se la compra la scaldapizzette nVidia, visto che oltre a costringerti a cambiare alimentatore e' pure più lenta? La guerra ATI e nVidia sta assomigliando sempre di piu' a quella tra AMD e Intel. ATI, come AMD, fa processori snelli e che consumano poco, ma vanno piu' veloce, mentre Intel fa degli elefanti che consumano gigawatt e che per stare al passo con le performance devono pompare sulle memorie.
  • Anonimo scrive:
    E' veramente 2 due volte piu' veloce!
    Non ci credevo, ma e' vero! Spaventoso!!!! Guardate il benchmark con l'AA (antialias) attivato: http://www.hwupgrade.it/articoli/1013/19.html Sulla mia 9700 Far Cry e' ingiocabile, mi sa che appena esce la x800 la compro.
  • Anonimo scrive:
    Il nome X800 ....
    orse per non dire 10800 ma e restare nei 4 caratteri. Mi sa tanto da bug del bios :-)E la prossima? XI800 non va bene, non ci sta in 4 caratteri. Che fanno Y800?:|ciao
  • Anonimo scrive:
    Re: 100%: =; 200%: x2
    - Scritto da: Anonimo

    - Scritto da: Anonimo




    100% è credibile, come del
    resto

    per


    il geffo. Ma 200%, qualcuno l'ha
    sparata


    grossa ;)



    Beh un incremento del 100% vuol dire
    che le

    prestazioni sono raddoppiate... a me
    pare un

    po troppo :s

    Per quanto ci ho capito, 100% vuol dire pari
    alla precedente, 200% = a prestazioni
    raddoppiateSi. 100% vuol dire pari al precedente. Quindi un aumento del 100% vuol dire un aumento pari al valore precedente. Cioè un raddoppio...
  • Anonimo scrive:
    Re: 100%: =; 200%: x2
    - Scritto da: Anonimo

    - Scritto da: Anonimo




    100% è credibile, come del
    resto

    per


    il geffo. Ma 200%, qualcuno l'ha
    sparata


    grossa ;)



    Beh un incremento del 100% vuol dire
    che le

    prestazioni sono raddoppiate... a me
    pare un

    po troppo :s

    Per quanto ci ho capito, 100% vuol dire pari
    alla precedente, 200% = a prestazioni
    raddoppiateeh no, il solo *incremento* è pari al 100%, sommalo...pari sarebbe "incremento dello 0%"KaysiX
  • Anonimo scrive:
    Re: 100%: =; 200%: x2
    - Scritto da: Anonimo


    100% è credibile, come del resto
    per

    il geffo. Ma 200%, qualcuno l'ha sparata

    grossa ;)

    Beh un incremento del 100% vuol dire che le
    prestazioni sono raddoppiate... a me pare un
    po troppo :sPer quanto ci ho capito, 100% vuol dire pari alla precedente, 200% = a prestazioni raddoppiate
  • Anonimo scrive:
    Re: Non vedo geffo-killer...
  • Anonimo scrive:
    Re: Non vedo geffo-killer...
    ???Ma siamo impazziti?Ora che possiamo toglierci dalle ***** i catalyst e tornare a nvidia facciamo pure finta di sbagliare a leggere i benchmark?
  • avvelenato scrive:
    Re: Non vedo geffo-killer...
    - Scritto da: Anonimo


    la atix800 richiede alimentazione
    standard,

    non consuma slot pci aggiuntivi, ha un

    antialiasing migliore, ha la precisione

    degli shader a 24bits senza troppi

    compromessi prestazionali... imho
    è

    migliore quasi sempre.



    consiglierei nVidia solo a chi usa molto

    OpenGl.

    cosa?
    ma li hai visti i bench dei pixel shader?sì, ma tu hai visto l'analisi qualitativa dei pixel shaders?facile fare bench superfighi utilizzando solo 16bits (e a qualità scadente).provando a forzare sulla geffo la modalità a 32bits torna in testa Ati.
  • ParisDabar scrive:
    Succhia
    ..un sacco di risorse al vostro alimentatore :)http://www.tomshardware.com/graphic/20040504/ati-x800-02.html
  • Anonimo scrive:
    Re: Non vedo geffo-killer...
    - Scritto da: Anonimo
    perchè
    non si danno tutti una calmata con
    l'hardware piuttosto e non cominciano a
    lavorare insieme sul software, che mi pare
    PARECCHIO lacunoso sotto tanti aspetti?Perché?... perché se no che cosa si vendono? Se un prodotto è valido per, magari, 3/4 anni in quel periodo che fai tu Intel o AMD che praticamente non produci altro?Innovazione tecnologica? SeeeeeeE chi la paga? Noi, quando uscirà QUEL nuovo chip superavanzatissimo. E quanto costerà secondo te? 150 euro? Mi sa purtroppo prprio di no. E poi tutti i dipendenti delle case produttrici che non servono più (vista la diminuzione di produzione) cosa fanno? Vanno a spasso.Purtroppo, in un modello economico come quello in cui viviamo (che, sottolineo, NON è a misura d'uomo) lo scenario attuale viene (ripeto: purtroppo) TROPPO comodo a tutti.
  • Anonimo scrive:
    Re: Non vedo geffo-killer...

    la atix800 richiede alimentazione standard,
    non consuma slot pci aggiuntivi, ha un
    antialiasing migliore, ha la precisione
    degli shader a 24bits senza troppi
    compromessi prestazionali... imho è
    migliore quasi sempre.

    consiglierei nVidia solo a chi usa molto
    OpenGl.cosa?ma li hai visti i bench dei pixel shader?
  • avvelenato scrive:
    Re: 100 o 200 % ?????
    - Scritto da: Anonimo


    è tanto. non è troppo, non

    è mai troppo!

    Vero hai ragione... non sono mai troppe le
    performance di una sk video ;)


    cmq la geforce6800 ha stupito tutti. Un

    tempo sarei stato anch'io scettico.
    Adesso

    trepido per leggere un bench in giro.

    idem :ohttp://www.hwupgrade.it/articoli/1013/28.html sono esterrefatto!non importa quando, questa scheda sarà mia!==================================Modificato dall'autore il 05/05/2004 1.19.50
  • Anonimo scrive:
    Re: 100 o 200 % ?????

    è tanto. non è troppo, non
    è mai troppo!Vero hai ragione... non sono mai troppe le performance di una sk video ;)
    cmq la geforce6800 ha stupito tutti. Un
    tempo sarei stato anch'io scettico. Adesso
    trepido per leggere un bench in giro.idem :o
  • avvelenato scrive:
    Re: 100 o 200 % ?????
    - Scritto da: Anonimo


    100% è credibile, come del resto
    per

    il geffo. Ma 200%, qualcuno l'ha sparata

    grossa ;)

    Beh un incremento del 100% vuol dire che le
    prestazioni sono raddoppiate... a me pare un
    po troppo :sè tanto. non è troppo, non è mai troppo!cmq la geforce6800 ha stupito tutti. Un tempo sarei stato anch'io scettico. Adesso trepido per leggere un bench in giro.
  • Anonimo scrive:
    Re: 100 o 200 % ?????
    - Scritto da: Anonimo


    100% è credibile, come del resto
    per

    il geffo. Ma 200%, qualcuno l'ha sparata

    grossa ;)

    Beh un incremento del 100% vuol dire che le
    prestazioni sono raddoppiate... a me pare un
    po troppo :sEffettivamente... ma considera che quando dicono 100%, chissà a cosa si riferiscono, magari a qualche bench di cui non ci frega una mazza, devono pompare sui giochi, ecco cosa ci interessa.Ma sai com'è, ati e nvidia ne devono dire di fregnacce sennò come convincono la gente a comprare 500 euro di scheda grafica ogni 6 mesi? :D:D:D
  • Anonimo scrive:
    Re: 100 o 200 % ?????

    100% è credibile, come del resto per
    il geffo. Ma 200%, qualcuno l'ha sparata
    grossa ;)Beh un incremento del 100% vuol dire che le prestazioni sono raddoppiate... a me pare un po troppo :s
  • Anonimo scrive:
    Re: 100 o 200 % ?????
    - Scritto da: Anonimo
    Secondo il produttore canadese, il nuovo
    chip è in grado di fornire un
    incremento di prestazioni, rispetto alla
    precedente generazione di GPU, compreso fra
    il 100 e il 200%

    100 o 200 % di prestazione in + rispetto
    alla precedente radeon ???
    Non ci credo neanche se lo vedo!100% è credibile, come del resto per il geffo. Ma 200%, qualcuno l'ha sparata grossa ;)
  • Anonimo scrive:
    100 o 200 % ?????
    Secondo il produttore canadese, il nuovo chip è in grado di fornire un incremento di prestazioni, rispetto alla precedente generazione di GPU, compreso fra il 100 e il 200%100 o 200 % di prestazione in + rispetto alla precedente radeon ???Non ci credo neanche se lo vedo!
  • Anonimo scrive:
    Non vedo geffo-killer...
    Stavolta, più che altro, vedo due ottimi prodotti che si rincorrono, ati ha potenziato quello che già faceva bene, nvidia si è data una bella ripulita, ora gareggiano tutto sommato in parità, superandosi vicendevolmente a seconda dei giochi e dei bench ai quali vengono sottoposte.La vera differenza stavolta la faranno i programmatori, sfruttando ogni novità introdotta e ottimizzando i driver per spingere al massimo i due giocattoloni.
    • Anonimo scrive:
      Re: Non vedo geffo-killer...
      Quando mai i programmatori hanno sfruttato l'hardware scusa? E' dal 386 che non succede piu', tanto e' vero che da un 486 ad un Pentium l'incremento di prestazioni era relativo praticamente a solo la frequenza di clock/bus aumentata e poco altro.Ora la 1 generazione dell'Athlon64 e' obsoleta e ancora non c'e' in giro software che possa sfruttare i 64 bit, perchè non si danno tutti una calmata con l'hardware piuttosto e non cominciano a lavorare insieme sul software, che mi pare PARECCHIO lacunoso sotto tanti aspetti? (facilità d'uso, intuitività, prestazioni generali o su determinate piattaforme, bug e insicurezze in ogni dove).Ciao
    • avvelenato scrive:
      Re: Non vedo geffo-killer...
      - Scritto da: Anonimo
      Stavolta, più che altro, vedo due
      ottimi prodotti che si rincorrono, ati ha
      potenziato quello che già faceva
      bene, nvidia si è data una bella
      ripulita, ora gareggiano tutto sommato in
      parità, superandosi vicendevolmente a
      seconda dei giochi e dei bench ai quali
      vengono sottoposte.
      La vera differenza stavolta la faranno i
      programmatori, sfruttando ogni novità
      introdotta e ottimizzando i driver per
      spingere al massimo i due giocattoloni.la atix800 richiede alimentazione standard, non consuma slot pci aggiuntivi, ha un antialiasing migliore, ha la precisione degli shader a 24bits senza troppi compromessi prestazionali... imho è migliore quasi sempre.consiglierei nVidia solo a chi usa molto OpenGl.
  • Anonimo scrive:
    Per la redazione
    Da quanto si evince, pare che nvidia abbia confermato anche una nuova scheda basata su nv40, probabilmente sarà una edizione limitata (al momento, finchè non affinano il processo di produzione), e prenderà il nome di Geforce 6800 Ultra Extreme, con frequenze core/ram maggiorate.
Chiudi i commenti