Roma – Plextor ha svelato il suo primo drive DVD, ed uno dei primi al mondo, provvisto della tecnologia Serial ATA. Quest’interfaccia, che ha fatto il suo ingresso sul mercato a bordo degli hard disk, caratterizza il nuovo modello di masterizzatore DVD PX-712SA.
Il PX-712SA è stato preannunciato all’epoca del lancio della versione Parallel ATA (E-IDE), il PX-712A , con cui condivide le caratteristiche tecniche: velocità di scrittura pari a 12x per i DVD+R, 4x per i DVD+/-RW, 8x per i DVD-R, 48x per i CD-R e 24x per i CD-RW; e velocità di lettura di 16x per i DVD e di 48x per i CD.
L’unità adotta 8 MB di buffer, le tecnologie Buffer Underrun Proof (CD), Lossless Linking (DVD+R/W) e Zero Link (DVD-R/W), la correzione degli errori PoweRec (Plextor Optimised Writing Error Reduction Control), la funzione Q-check (test errori C1/C2, test FE/TE, test Beta/Jitter e test PI/PO) per la verifica della qualità dei dischi, e la tecnologia GigaRec per la memorizzazione di un massimo di 1 GB di dati su CD-R da 99 minuti.
La tecnologia VariRec di Plextor permette di ottimizzare la qualità audio delle registrazioni tramite otto parametri preimpostati, mentre l’uso della funzione di formattazione in background consente di formattare i dischi mentre si aggiungono altri dati al disco da masterizzare. E per proteggere i dati personali è disponibile SecuRec, che permette di assegnare a file e cartelle una password d’accesso.
Il PX-712SA sarà disponibile da giugno al prezzo indicativo di 269 euro IVA inclusa.
C’è da dire che al momento sono ancora pochissimi i supporti DVD+R certificati per la velocità di scrittura 12x: fra quelli segnalati da Plextor lo scorso marzo vi sono Maxell, Ricoh e Taiyo Yuden.
-
Per la redazione
Da quanto si evince, pare che nvidia abbia confermato anche una nuova scheda basata su nv40, probabilmente sarà una edizione limitata (al momento, finchè non affinano il processo di produzione), e prenderà il nome di Geforce 6800 Ultra Extreme, con frequenze core/ram maggiorate.AnonimoNon vedo geffo-killer...
Stavolta, più che altro, vedo due ottimi prodotti che si rincorrono, ati ha potenziato quello che già faceva bene, nvidia si è data una bella ripulita, ora gareggiano tutto sommato in parità, superandosi vicendevolmente a seconda dei giochi e dei bench ai quali vengono sottoposte.La vera differenza stavolta la faranno i programmatori, sfruttando ogni novità introdotta e ottimizzando i driver per spingere al massimo i due giocattoloni.AnonimoRe: Non vedo geffo-killer...
Quando mai i programmatori hanno sfruttato l'hardware scusa? E' dal 386 che non succede piu', tanto e' vero che da un 486 ad un Pentium l'incremento di prestazioni era relativo praticamente a solo la frequenza di clock/bus aumentata e poco altro.Ora la 1 generazione dell'Athlon64 e' obsoleta e ancora non c'e' in giro software che possa sfruttare i 64 bit, perchè non si danno tutti una calmata con l'hardware piuttosto e non cominciano a lavorare insieme sul software, che mi pare PARECCHIO lacunoso sotto tanti aspetti? (facilità d'uso, intuitività, prestazioni generali o su determinate piattaforme, bug e insicurezze in ogni dove).CiaoAnonimoRe: Non vedo geffo-killer...
- Scritto da: Anonimo> Stavolta, più che altro, vedo due> ottimi prodotti che si rincorrono, ati ha> potenziato quello che già faceva> bene, nvidia si è data una bella> ripulita, ora gareggiano tutto sommato in> parità, superandosi vicendevolmente a> seconda dei giochi e dei bench ai quali> vengono sottoposte.> La vera differenza stavolta la faranno i> programmatori, sfruttando ogni novità> introdotta e ottimizzando i driver per> spingere al massimo i due giocattoloni.la atix800 richiede alimentazione standard, non consuma slot pci aggiuntivi, ha un antialiasing migliore, ha la precisione degli shader a 24bits senza troppi compromessi prestazionali... imho è migliore quasi sempre.consiglierei nVidia solo a chi usa molto OpenGl.avvelenato100 o 200 % ?????
Secondo il produttore canadese, il nuovo chip è in grado di fornire un incremento di prestazioni, rispetto alla precedente generazione di GPU, compreso fra il 100 e il 200%100 o 200 % di prestazione in + rispetto alla precedente radeon ???Non ci credo neanche se lo vedo!AnonimoRe: 100 o 200 % ?????
- Scritto da: Anonimo> Secondo il produttore canadese, il nuovo> chip è in grado di fornire un> incremento di prestazioni, rispetto alla> precedente generazione di GPU, compreso fra> il 100 e il 200%> > 100 o 200 % di prestazione in + rispetto> alla precedente radeon ???> Non ci credo neanche se lo vedo!100% è credibile, come del resto per il geffo. Ma 200%, qualcuno l'ha sparata grossa ;)AnonimoRe: 100 o 200 % ?????
> 100% è credibile, come del resto per> il geffo. Ma 200%, qualcuno l'ha sparata> grossa ;)Beh un incremento del 100% vuol dire che le prestazioni sono raddoppiate... a me pare un po troppo :sAnonimoRe: 100 o 200 % ?????
- Scritto da: Anonimo> > > 100% è credibile, come del resto> per> > il geffo. Ma 200%, qualcuno l'ha sparata> > grossa ;)> > Beh un incremento del 100% vuol dire che le> prestazioni sono raddoppiate... a me pare un> po troppo :sEffettivamente... ma considera che quando dicono 100%, chissà a cosa si riferiscono, magari a qualche bench di cui non ci frega una mazza, devono pompare sui giochi, ecco cosa ci interessa.Ma sai com'è, ati e nvidia ne devono dire di fregnacce sennò come convincono la gente a comprare 500 euro di scheda grafica ogni 6 mesi? :D:D:DAnonimoRe: 100 o 200 % ?????
- Scritto da: Anonimo> > > 100% è credibile, come del resto> per> > il geffo. Ma 200%, qualcuno l'ha sparata> > grossa ;)> > Beh un incremento del 100% vuol dire che le> prestazioni sono raddoppiate... a me pare un> po troppo :sè tanto. non è troppo, non è mai troppo!cmq la geforce6800 ha stupito tutti. Un tempo sarei stato anch'io scettico. Adesso trepido per leggere un bench in giro.avvelenatoRe: 100 o 200 % ?????
> è tanto. non è troppo, non> è mai troppo!Vero hai ragione... non sono mai troppe le performance di una sk video ;)> cmq la geforce6800 ha stupito tutti. Un> tempo sarei stato anch'io scettico. Adesso> trepido per leggere un bench in giro.idem :oAnonimoRe: 100 o 200 % ?????
- Scritto da: Anonimo> > > è tanto. non è troppo, non> > è mai troppo!> > Vero hai ragione... non sono mai troppe le> performance di una sk video ;)> > > cmq la geforce6800 ha stupito tutti. Un> > tempo sarei stato anch'io scettico.> Adesso> > trepido per leggere un bench in giro.> > idem :ohttp://www.hwupgrade.it/articoli/1013/28.html sono esterrefatto!non importa quando, questa scheda sarà mia!==================================Modificato dall'autore il 05/05/2004 1.19.50avvelenatoRe: Non vedo geffo-killer...
> la atix800 richiede alimentazione standard,> non consuma slot pci aggiuntivi, ha un> antialiasing migliore, ha la precisione> degli shader a 24bits senza troppi> compromessi prestazionali... imho è> migliore quasi sempre.> > consiglierei nVidia solo a chi usa molto> OpenGl.cosa?ma li hai visti i bench dei pixel shader?AnonimoRe: Non vedo geffo-killer...
- Scritto da: Anonimo> perchè> non si danno tutti una calmata con> l'hardware piuttosto e non cominciano a> lavorare insieme sul software, che mi pare> PARECCHIO lacunoso sotto tanti aspetti?Perché?... perché se no che cosa si vendono? Se un prodotto è valido per, magari, 3/4 anni in quel periodo che fai tu Intel o AMD che praticamente non produci altro?Innovazione tecnologica? SeeeeeeE chi la paga? Noi, quando uscirà QUEL nuovo chip superavanzatissimo. E quanto costerà secondo te? 150 euro? Mi sa purtroppo prprio di no. E poi tutti i dipendenti delle case produttrici che non servono più (vista la diminuzione di produzione) cosa fanno? Vanno a spasso.Purtroppo, in un modello economico come quello in cui viviamo (che, sottolineo, NON è a misura d'uomo) lo scenario attuale viene (ripeto: purtroppo) TROPPO comodo a tutti.AnonimoSucchia
..un sacco di risorse al vostro alimentatore :)http://www.tomshardware.com/graphic/20040504/ati-x800-02.htmlParisDabarRe: Non vedo geffo-killer...
- Scritto da: Anonimo> > > la atix800 richiede alimentazione> standard,> > non consuma slot pci aggiuntivi, ha un> > antialiasing migliore, ha la precisione> > degli shader a 24bits senza troppi> > compromessi prestazionali... imho> è> > migliore quasi sempre.> > > > consiglierei nVidia solo a chi usa molto> > OpenGl.> > cosa?> ma li hai visti i bench dei pixel shader?sì, ma tu hai visto l'analisi qualitativa dei pixel shaders?facile fare bench superfighi utilizzando solo 16bits (e a qualità scadente).provando a forzare sulla geffo la modalità a 32bits torna in testa Ati.avvelenatoRe: Non vedo geffo-killer...
???Ma siamo impazziti?Ora che possiamo toglierci dalle ***** i catalyst e tornare a nvidia facciamo pure finta di sbagliare a leggere i benchmark?AnonimoRe: Non vedo geffo-killer...
AnonimoRe: 100%: =; 200%: x2
- Scritto da: Anonimo> > > 100% è credibile, come del resto> per> > il geffo. Ma 200%, qualcuno l'ha sparata> > grossa ;)> > Beh un incremento del 100% vuol dire che le> prestazioni sono raddoppiate... a me pare un> po troppo :sPer quanto ci ho capito, 100% vuol dire pari alla precedente, 200% = a prestazioni raddoppiateAnonimoRe: 100%: =; 200%: x2
- Scritto da: Anonimo> > - Scritto da: Anonimo> > > > > 100% è credibile, come del> resto> > per> > > il geffo. Ma 200%, qualcuno l'ha> sparata> > > grossa ;)> > > > Beh un incremento del 100% vuol dire> che le> > prestazioni sono raddoppiate... a me> pare un> > po troppo :s> > Per quanto ci ho capito, 100% vuol dire pari> alla precedente, 200% = a prestazioni> raddoppiateeh no, il solo *incremento* è pari al 100%, sommalo...pari sarebbe "incremento dello 0%"KaysiXAnonimoRe: 100%: =; 200%: x2
- Scritto da: Anonimo> > - Scritto da: Anonimo> > > > > 100% è credibile, come del> resto> > per> > > il geffo. Ma 200%, qualcuno l'ha> sparata> > > grossa ;)> > > > Beh un incremento del 100% vuol dire> che le> > prestazioni sono raddoppiate... a me> pare un> > po troppo :s> > Per quanto ci ho capito, 100% vuol dire pari> alla precedente, 200% = a prestazioni> raddoppiateSi. 100% vuol dire pari al precedente. Quindi un aumento del 100% vuol dire un aumento pari al valore precedente. Cioè un raddoppio...AnonimoIl nome X800 ....
orse per non dire 10800 ma e restare nei 4 caratteri. Mi sa tanto da bug del bios :-)E la prossima? XI800 non va bene, non ci sta in 4 caratteri. Che fanno Y800?:|ciaoAnonimoE' veramente 2 due volte piu' veloce!
Non ci credevo, ma e' vero! Spaventoso!!!! Guardate il benchmark con l'AA (antialias) attivato: http://www.hwupgrade.it/articoli/1013/19.html Sulla mia 9700 Far Cry e' ingiocabile, mi sa che appena esce la x800 la compro.AnonimoRe: Succhia
- Scritto da: ParisDabar> ..un sacco di risorse al vostro alimentatore La GeForce 6800 Ultra consuma 130 watt contro i 70 della Ati x800XT. Direi che ATI stavolta ha davvero messo nVidia in mutande. Chi se la compra la scaldapizzette nVidia, visto che oltre a costringerti a cambiare alimentatore e' pure più lenta? La guerra ATI e nVidia sta assomigliando sempre di piu' a quella tra AMD e Intel. ATI, come AMD, fa processori snelli e che consumano poco, ma vanno piu' veloce, mentre Intel fa degli elefanti che consumano gigawatt e che per stare al passo con le performance devono pompare sulle memorie.AnonimoAti batte Nvidia 10 a 1...
Basti guardare il consumo di questi ultimi processori, che se nel caso del Radeon X800 non si discosta di molto dai valori dei dispositivi analoghi, nel caso di Nvidia si avvicina al consumo di un microonde ( ~ 400 Watt ! )AnonimoRe: Non vedo geffo-killer...
> sì, ma tu hai visto l'analisi> qualitativa dei pixel shaders?> facile fare bench superfighi utilizzando> solo 16bits (e a qualità scadente).> > provando a forzare sulla geffo la> modalità a 32bits torna in testa Ati.Ok, non li hai visti.Vai su Anandtech e guarda.AnonimoRe: Per la redazione
- Scritto da: Anonimo> Da quanto si evince, pare che nvidia abbia> confermato anche una nuova scheda basata su> nv40, probabilmente sarà una edizione> limitata (al momento, finchè non> affinano il processo di produzione), e> prenderà il nome di Geforce 6800> Ultra Extreme, con frequenze core/ram> maggiorate.E un 3° Molex di alimentazione non ce lo mettono? :DAnonimoBla...bla...bla....
I test delle case produttrici non sono minimamente credibili.è come le case automobilistiche che annunciano consumi di benzina irreali tipo "4lt / 100km" poi la compri e al massimo ci fai "6.5 lt /100 km".I test fatti da terze parti sono un pò più attendibili ma comunque pilotati. Ci sono troppe varibili che possono modificare la resa di una sk grafica anche a parità di hardware. Si può agire sia a livello hardware come settaggi della sk madre o frequenza del bus, che software come drivers, software utilizzato ecc...Questi test danno sopratutto una linea di massima ma vanno presi mooolto con le molle.AnonimoRe: Ati batte Nvidia 10 a 1...
- Scritto da: Anonimo> Basti guardare il consumo di questi ultimi> processori, che se nel caso del Radeon X800> non si discosta di molto dai valori dei> dispositivi analoghi, nel caso di Nvidia si> avvicina al consumo di un microonde ( ~ 400> Watt ! )fonti?HydeATI? Non mi convince...
Tutte le sk ATI che ho provato hanno sempre avuto delle rogne, o coi driver o chissà cos'altro e spesso con risultati prestazionali scadenti... NVidia, al contrario, non mi ha mai deluso... Quindi, per me, ATI=MAI PIU'.HotEngineRe: Ati batte Nvidia 10 a 1...
non dire cavolate, il GeForce 6800 Ultra consuma "soli" 17 watt in più della nuova scheda ATiAnonimoRe: ATI? Non mi convince...
Problemi con i driver ATI?????Ma che per caso hai linux sulla tua macchina?AnonimoRe: Succhia
prima di parlare guardati qualche recensione, e guarda i consumi di picco, non i comsuni medi che non hanno alcun senso... la GeForce 6800 Ultra consuma "solo" 17 watt in più della Ati X800XT.AnonimoRe: ATI? Non mi convince...
- Scritto da: Anonimo> Problemi con i driver ATI?????> > Ma che per caso hai linux sulla tua macchina?Guarda che per linux ci sono i driver e pure validi, mentre geffo non rilascia info a suufficienza per farli al melgio.AnonimoRe: Ati batte Nvidia 10 a 1...
- Scritto da: Anonimo> non dire cavolate, il GeForce 6800 Ultra> consuma "soli" 17 watt in più della> nuova scheda ATiNo, il problema dei consumi è reale per Nvidia. Vai su hwupgrade e avrai due ottime recensioni delle schede di Nvidia e di ATI; si parla anche di quegli aspetti e potrai rendertene conto da solo. La scheda di ATI sembra, bisognerà poi vedere sul campo, un migliore nel complesso costituito da consumi-prestazioni, bisognerà vedere i costi ma anche lì i canadesi di solito sono meno esigenti. Nvidia supporta lo shader3, è superiore nell'OpenGl e sembra tecnologicamente persino troppo avanti al momento attuale. Comunque si tratta di due eccellenti prodotti.AnonimoLa mia ATI Radeon
8500 LE va benissimo !;)e me la tengo !Sul portatile ho la Mobility Radeon 9000, ottima !(provata con i giochi 3d ovviamente)AnonimoRe: Non vedo geffo-killer...
- Scritto da: Anonimo> > > sì, ma tu hai visto l'analisi> > qualitativa dei pixel shaders?> > facile fare bench superfighi utilizzando> > solo 16bits (e a qualità> scadente).> > > > provando a forzare sulla geffo la> > modalità a 32bits torna in testa> Ati.> > Ok, non li hai visti.> Vai su Anandtech e guarda.io ho letto la rece su hwupgrade e mi basta.http://www.hwupgrade.it/articoli/1013/15.htmlhttp://www.hwupgrade.it/articoli/1013/19.htmlavvelenatoRe: Non vedo geffo-killer...
- Scritto da: Anonimo> ???> Ma siamo impazziti?> Ora che possiamo toglierci dalle ***** i> catalyst e tornare a nvidia facciamo pure> finta di sbagliare a leggere i benchmark?perché? chi te lo impedisce?nVidia è comunque un'ottima casa, la geforce6800 rimane una signora scheda. Se odi i catalyst prenditi la geforce6.8k. Ma non venire a dire che la GF6.8k sia migliore della Ati. Non vedo proprio dove e come e quando (apparte nell'openGl)avvelenatoRe: ATI? Non mi convince...
- Scritto da: HotEngine> Tutte le sk ATI che ho provato hanno sempre> avuto delle rogne, o coi driver o> chissà cos'altro e spesso con> risultati prestazionali scadenti... NVidia,> al contrario, non mi ha mai deluso...> Quindi, per me, ATI=MAI PIU'.anche AMD ha avuto problemi. Ciò non toglie che adesso entrambe si siano sapute riconquistare la reputazione persa ;)te lo assicuro. parlo da utente (obbligato) nVidia. avvelenato legato alla nVidia per motivi estranei alla sua volontà :'(avvelenatoRe: Per la redazione
Su Hwupgrade han recensito anche quella...AnonimoRe: ATI? Non mi convince...
l'ultima scheda ati che mi ha dato qualche preoccupazione minima è stata la fury maxx, quella coi due processori in parallelo... da allora, tutto è filato liscio.lklRe: ATI? Non mi convince...
- Scritto da: Anonimo> > - Scritto da: Anonimo> > Problemi con i driver ATI?????> > > > Ma che per caso hai linux sulla tua> macchina?> > Guarda che per linux ci sono i driver e pure> validi, mentre geffo non rilascia info a> suufficienza per farli al melgio.I driver Nvidia su linux ci sono. :DAnonimoGrazie, il tuo commento è in fase di approvazioneGrazie, il tuo commento è stato pubblicatoCommento non inviatoGrazie per esserti iscritto alla nostra newsletterOops, la registrazione alla newsletter non è andata a buon fine. Riprova.Leggi gli altri commentiRedazione 04 05 2004
Ti potrebbe interessare