Starnuti? Allergie? Via iPod e cellulari

Solleva dubbi il singolare avvertimento di un medico, secondo cui alcune reazioni allergiche sarebbero originate dai gadget più amati e venduti. Colpa dei materiali?

Roma – C’è almeno un medico che avverte del rischio: telefoni cellulari, iPod e dintorni, secondo Todd Rosengart, direttore del reparto di cardiochirurgia toracica dell’ ospedale universitario Stony Brook , sarebbero potenziali latori di allergie .

starnuto Rosengart, che è anche consigliere di MDX Medical e creatore di Vitals , spiega che “oltre alle tipiche allergie da polline, dilaganti durante i mesi della primavera, i tecnofili dovranno prestare attenzione ad alcuni dei propri gadget preferiti, che possono essere causa di determinati sintomi allergici”.

I cellulari, ad esempio, secondo Rosengart possono aggredire utenti sensibili ai metalli e ai minerali impiegati nel processo di fabbricazione. Il nichel, largamente impiegato nelle batterie, è additato come uno dei principali responsabili di allergie dermatologiche da contatto e può favorire lo sviluppo di eruzioni o altre anomalie cutanee.

Non è la prima volta che i rischi connessi al contatto con determinate sostanze saltano agli onori della cronaca: lo scorso ottobre Greenpeace aveva analizzato un iPhone, rilevando che molte sostanze rientravano nei limiti di legge ma sottolineando come l’apparecchio risultasse ricco di PVC , cloro , ftalati e molti composti ritardanti di fiamma a base di bromo, con il risultato, in quel caso, di risultare potenzialmente ostili al normale sviluppo dei genitali maschili.

Ma di nichel e di composti potenzialmente dannosi si parla ormai ovunque . C’è quindi chi finisce per chiedersi come mai ancora non si applichino delle etichette sulle confezioni che specifichino chiaramente se l’oggetto in questione contenga o meno tracce di nichel, cobalto, cromo o altre sostanze “a rischio”. Sostanze peraltro contenute in moltissimi oggetti che di elettronico non hanno nulla né garantiscono certo le prime pagine come cellulari e iPod.

Marco Valerio Principato

( Fonte immagine )

La tua email sarà utilizzata per comunicarti se qualcuno risponde al tuo commento e non sarà pubblicato. Dichiari di avere preso visione e di accettare quanto previsto dalla informativa privacy

  • lroby scrive:
    la cpu non potrà mai mancare
    come da oggetto,perchè vi sono delle applicazioni come i videogiochi dove alcune cose come la gestione della IA dei personaggi pilotati dal computer,della gestione delle periferiche come mouse e tastiere e imho diverse altre, che attualmente vengono gestite in toto dalla cpu (meglio se multicore) non potrammo imho mai essere demantate totalmente alla gpu,in quanto quest'ultima è nata con uno scopo essenziale, e non racchiude al suo interno le istruzioni e le capacità di gestire le applicazioni sopra descritte.altrimenti nulla vieta che potrebbero fare la stessa cosa al contrario,ovvero cpu magari 4 core o più che racchiude al suo interno anche tutte le funzioni tipiche delle gpu.. ma non penso che queste cose siano così fattibili.almeno non a livello desktop/notebook...sui palmari potrebbe forse anche essere..oltretutto dall'articolo sembra che le cpu abbiano ormai la vita corta, peccato che : i core della cpu possono aumentare ancora (anche se non all'infinito almeno fino a 8 forse 16 unità dovrebbero riuscirci IMHO), e altra cosa, stanno arrivando nuovi materiali a sostituire il silicio (vedi grafene), certo non nell'immediato ma porteranno ulteriore nuova vita alle cpu in quanto tali.boh. staremo a vedere..LROBY
    • amedeo scrive:
      Re: la cpu non potrà mai mancare
      Inoltre bisogna considerare che nel caso dovesse succedere, si scaricherebbero sulla GPU dei compiti che probabilmente ne farebbero inutilmente decadere le prestazioni.Inizialmente le schede video gestivano solo I/O,tutto il calcolo veniva effettuato dalla CPU (qualcuno di voi ricorda le schede CGA e EGA ?).Poi qualcuno ha inventato le schede grafiche 'intelligenti' (ovvero con una propria cpu), aleggerendo il carico alla CPU e rendendo migliore il tuttoIn seguito si sono svuluppate varie tecnologie, tra cui librerie grafiche le cui funzioni sono poi riportate nell'hardware delle schede (ovvero se la funzione e' implementata in hardware/GPU la utilizzo, altrimenti la emulo tramite la CPU).Eliminare la CPU significherebbe scaricare sulla GPU un carico di lavoro ora effettuato alla CPU (es. gestione interfaccia IDE/SATA, USB ecc.) a discapito delle prestazioni nel suo ambito specifico.Mi sembra piu' probabile la via dell'integrazione come e' successo all'epoca del 486 con il coprocessore matematico, ma sempre rimanendo in un campo abbastanza generico come gia' fatto per le istruzioni multimediali gia' disponibili da anni nelle CPU (MMX ecc.)Con la sostituzione totale come si potrebbe aggiornare un sistema per avere prestazioni grafiche migliori ? cambiando in toto la CPU/GPU ? probabilmente rimarrebbe molto oneroso.
      • lroby scrive:
        Re: la cpu non potrà mai mancare
        - Scritto da: amedeo
        Inizialmente le schede video gestivano solo
        I/O,tutto il calcolo veniva effettuato dalla CPU
        (qualcuno di voi ricorda le schede CGA e EGA
        ?).Hai dimenticato le hercules :D non parlo della marca attuale di prodotti informatici ma delle schede video che davano un primo abbozzo di grafica (monocromatica) ad alta (per l'epoca) definizione, faceva ben 640 * 200 punti se ricordo bene e aveva dei monitor tutti particolari con attacco 9 pin che ricorda le seriali uscite qualche anno dopo,avevo un 12" di quel tipo, monocromatico appunto e ricordo che la cosa + bella che ci feci fù usarlo come secondo monitor per il C=128, in modalità Fast a 2mhz, in alta risoluzione a 80 colonne, per basic, geos e cp/m..altro che C=64 !! :DLROBY-----------------------------------------------------------Modificato dall' autore il 29 aprile 2008 22.04-----------------------------------------------------------
  • ninjaverde scrive:
    Obsoleti
    Le nostre macchine attuali son già obsolete.Non tanto perchè fra qualche anno vi saranno CPU miltiprocessore, ma perchè la struttura dei Pc è comunque sempre quella di 30 anni fa.Anche la gestione della memoria ad esempio è macchinosa poichè è strutturata secondo i concetti di allora, quando non si pensava di certo ai Gb attuali di ram.Di conseguenza i SO si sono dovuti adattare a tale situazione.Occorre un nuovo PC o un nuovo Mac, ossia una struttura nuova per ottimizzare il rendimento della macchina.Per far questo non è semplice, occorre un nuovo progetto hardware e software di base. Il che richiede un invenstimento non indifferente e poi c'è il problema del mercato, che tutto sommato non premia i nuovi progetti anche se darebbero dei vantaggi.Rimarremo ancora un bel pò con "vecchi" baracconi, a cui occorre dare un sacco di risorse per farli funzionare in un certo modo.Ovvio che i tempi sarebbero maturi per voltare pagina, ma l'incertezza di un mercato restio alle novità non incoraggia certo i progettisti.
  • Phabio76 scrive:
    Ma se Nvidia vuole acquisire VIA...
    di cosa va cianciando Mr.Taylor ?Diciamo piuttosto che per non essere tagliata fuori dal mercato Nvidia, in netto ritardo, cerca alleati per produrre qualcosa che somigli ai progetti Larrabee e Fusion
  • dont feed the troll scrive:
    il futuro secondo me
    Intel e ATI metteranno sul mercato CPU multicore che integrano le funzionalità base di accelerazione 3D e di deocmpressione video, cosicchè le macchine da "ufficio" potranno usufruire degli effetti grafici di Aero o Compiz, senza avere chip grafici dedicati (nemmeno impiantati su MoBo), per i video giocatori sarà possibile intregrare le funzionalità con GPU esterne in serie con tecnologie tipo Hybrid SLI.In questo modo s potrà avere tutta la potenza necessarie in maniera modulare e con costi strettamente proporzionati alla stessa
    • grtgrtg scrive:
      Re: il futuro secondo me
      - Scritto da: dont feed the troll
      Intel e ATI metteranno sul mercato CPU multicore
      che integrano le funzionalità base di
      accelerazione 3D e di deocmpressione video,
      cosicchè le macchine da "ufficio" potranno
      usufruire degli effetti grafici di Aero o Compiz,
      senza avere chip grafici dedicati (nemmeno
      impiantati su MoBo), per i video giocatori sarà
      possibile intregrare le funzionalità con GPU
      esterne in serie con tecnologie tipo Hybrid
      SLI.
      In questo modo s potrà avere tutta la potenza
      necessarie in maniera modulare e con costi
      strettamente proporzionati alla
      stessama dai..dopo l'impero romano pensate ancora che esista un futuro? illusi :D
  • Ricky scrive:
    parallelismo
    Nvidia se ne esce con affermazioni di marketing, ovviamente deve fatturare ha i famosi AZIONISTI a cui dare dividendi...Questo vale anche per intel ed amd e tutti gli altri in fila...Quindi l'ipotesi piu' plausibile e' che contano sulla contrazione delle vendite dato il periodo non proprio roseo che stiamo vivendo un po tutti nel Mondo, America compresa.L'ovvio messaggio e' "comprate da noi e non dagli altri, ne avrete un beneficio!"LORO ne avranno un beneficio....noi potremmo, ad esempio, finirla di voler giocare a giochi tipo Crisys a 1900 x 1200 full antialiasing...!La cpu si occupa di un certo lavoro, la GPU di un altro, lo dicono anche i nomi...Si possono fondere le due capacita' ma ,ovviamente, sei costretto a cambiare entrambe le opzioni SE vuoi piu' potenza.Adesso puoi decidere tu se necessiti di GPU o di CPU, un indomani decideranno loro...Per lavorare , nella maggior parte dei casi, non serve una gpu ma una cpu e nemmeno poi tanto veloce.Se vai in applicazioni professionali la cosa cambia ma le soluzioni sno specifiche e spesso esulano dalla mera potenza.Insomma...nvidia vuole TANTO i nostri soldi e spara cavolate... sta' a noi non abboccare e pilotare il mercato su soluzioni meno costose,piu' ecocompatibili e con richieste energetiche minori.Ai programmatori ,magari, chiediamo piu' concentrazione sul CODICE perche' sia ottimizzato e non una schifezza avara di risorse.
    • Caio scrive:
      Re: parallelismo
      - Scritto da: Ricky
      Ai programmatori ,magari, chiediamo piu'
      concentrazione sul CODICE perche' sia ottimizzato
      e non una schifezza avara di
      risorse.Avete sentito programmatori di Vista?
  • Guybrush scrive:
    Mi sembra eccessivo...
    finche' si tratta di affrontare flussi di dati da trattare come in catena di montaggio sono d'accordo con le affermazioni di NVIDIA: e' proprio cosi', una CPU non puo' competere.Altro discorso e' quando c'e' da affrontare problemi complessi e diversi dal lavoro in serie, come una partita di scacchi, una simulazione o un'altra applicazione che richieda potenza di calcolo.Al momento la differenza tra una gpu e' una cpu e' la stessa che passa tra una catena di montaggio per automobili e una officina attrezzata come il laboratorio di Archimede Pitagorico.La prima sforna decine di automobili ogni giorno, il secondo qualsiasi cosa... cambiano i tempi.Se NVidia vuole lanciarsi nel mercato delle CPU dovra' darsi un gran da fare per recuperare il gap che ha con intel e AMD, anche perche' il limite non e' rappresentato tanto dalla potenza di calcolo (che e' semplicemente smodata), ma dal modo di gestirla.Saluti.GT
    • Nifft scrive:
      Re: Mi sembra eccessivo...
      - Scritto da: Guybrush
      Altro discorso e' quando c'e' da affrontare
      problemi complessi e diversi dal lavoro in serie,
      come una partita di scacchi, una simulazione o
      un'altra applicazione che richieda potenza di
      calcolo.Non è completamente vero. Molte applicazioni di questo tipo possono essere portate (anche se non banalmente) su processori dedicati come le GPU. Attualmente sto lavorando proprio per implemetare simulazioni tipo Monte Carlo (quelle che si usano in fisica) su gpu. Non sono rose e fiori. Alcune caratteristiche sono eccellenti, ad esempio per il tracing, ma altre meno, ad esempio la singola precisione.Il fatto è che, anche se questi processori non sono affatto progettati per questo tipo di calcolo, le loro prestazioni sono così elevate da sopperire le inefficienze dovute all'architettura (e alla conseguente programmazione involuta) non ottimale.Probabilemnte il futuro del calcolo passerà attraverso l'uso di diverse tipologie di processori dedicati.
  • Kovasky scrive:
    Magari bere meno.....
    Figuriamoci....Provate ad andare sul sito nVidia nella sezione driver e guardate la valanga di release che fanno all'anno a causa di problemi che hanno.Guardate il loro forum infinito, dove i posts relativi a quali driver usare per rendere stabile il sistema, sono la maggior parte.Veramente triste pensare che la CPU possa essere soppiantata dalla GPU (nVidia poi.....)Saluti.
  • Matteo scrive:
    uso solo la CPU!!
    Io non ho mai avuto una GPU sul mio computer :)Ho sempre e usato solo la cpu, e mi sono sempre trovato benissimo :)Certo, non perdo tempo a giocare all'ultimo gioco, e a fare il figo con gli amici con Compiz & C. Uso il computer in ambito professionale, e la scheda intel integrata i865 è fin troppo :)Sinceramente, oltre ai giochi, non so a cos'altro possa servire la Gpu..
    • grtgrtg scrive:
      Re: uso solo la CPU!!
      - Scritto da: Matteo
      Io non ho mai avuto una GPU sul mio computer :)
      Ho sempre e usato solo la cpu, e mi sono sempre
      trovato benissimo
      :)
      Certo, non perdo tempo a giocare all'ultimo
      gioco, e a fare il figo con gli amici con Compiz
      & C.

      Uso il computer in ambito professionale, e la
      scheda intel integrata i865 è fin troppo
      :)

      Sinceramente, oltre ai giochi, non so a cos'altro
      possa servire la
      Gpu..ti va fluido google earth? e blender?
      • nome scrive:
        Re: uso solo la CPU!!
        - Scritto da: grtgrtg
        - Scritto da: Matteo

        Io non ho mai avuto una GPU sul mio computer :)

        Ho sempre e usato solo la cpu, e mi sono sempre

        trovato benissimo

        :)

        Certo, non perdo tempo a giocare all'ultimo

        gioco, e a fare il figo con gli amici con Compiz

        & C.



        Uso il computer in ambito professionale, e la

        scheda intel integrata i865 è fin troppo

        :)



        Sinceramente, oltre ai giochi, non so a
        cos'altro

        possa servire la

        Gpu..

        ti va fluido google earth?
        e blender?Blender su MacBook con GMA950 va che una meraviglia... direi che la gpu è insignificante
      • Matteo scrive:
        Re: uso solo la CPU!!
        non uso blender, non mi serve...cmq, anche gli effetti 3d (beryl e compiz) funzionano benissimo! Anche se non li uso perchè li trovo inutili... ma vanno! Credo che la gpu possa servire solo per i giochi.. ma non sono un giocatore, e ritengo che il pc non sia fatto per giocare, a tal proposito sono state inventale le console, come la PlayStation.
    • mura scrive:
      Re: uso solo la CPU!!
      - Scritto da: Matteo
      Sinceramente, oltre ai giochi, non so a cos'altro
      possa servire la
      Gpu..bhè una gpu moderna può essere usata per tante cose tipo riproduzione di contenuti video in alta risoluzione ma se preferisci restare sul mercato professionale ti cito la progettazione cad tridimensionale, per gli smanettoni ci sono pure un paio di progetti per usarle per fare brute force cracking di password :D
      • Matteo scrive:
        Re: uso solo la CPU!!
        - Scritto da: mura
        bhè una gpu moderna può essere usata per tante
        cose tipo riproduzione di contenuti video in alta
        risoluzione ma se preferisci restare sul mercato
        professionale ti cito la progettazione cad
        tridimensionale, per gli smanettoni ci sono pure
        un paio di progetti per usarle per fare brute
        force cracking di password
        :Dsi certo, non nego la potenza di una GPU! però secondo me, è insensata l'affermazione fatta. Anzi, secondo me si può vivere senza gpu, ma non senza cpu :)Io non ho mai avuto la gpu sui miei computer, e ho sempre vissuto felice :)Poi le gpu per i progetti di predizione della struttura delle proteine per intenderci folding@home sono ottime! hanno risultati nettamente superiori degli ultimi processori.Dipende poi se all'utente finale serve veramente :)
  • dav scrive:
    GPU questa sconosciuta... da NVIDIA
    "oggi quando il tuo computer riproduce un video è il nostro chip che svolge quel lavoro, quando giochi è il nostro chip che svolge quel lavoro, quando rippi un film è il nostro chip che fa quel lavoro".A parte i giochi tutto il resto e' falso.Basta pensare alla riproduzione dei x.264... e' proprio la GPU che lavora, ma chi parla ci capisce qualche cosa?
    • H5N1 scrive:
      Re: GPU questa sconosciuta... da NVIDIA
      Prova a disabilitare l'accelerazione hardware e vediamo che succede.Nelle nuove GPU la codifica/decodifica dell' x264 è prevista e viene svolta dalla GPU così come l'overlay video e il motion detection in molti codec video.
      • Wolf01 scrive:
        Re: GPU questa sconosciuta... da NVIDIA
        In questo pc ho disabilitato l'accelerazione hardware perchè la scheda video è abbastanza "vecchiotta", non trovo drivers aggiornati e con questi mi crashaEbbene, pure le finestre di windows si aprono a fatica, mentre quando la riabilito giusto per ricordarmi che effettivamente non è il pc una m.. tutto si apre velocementeMi chiedo se effettivamente vista possa girare senza accelerazione hardware
        • Shu scrive:
          Re: GPU questa sconosciuta... da NVIDIA
          - Scritto da: Wolf01
          In questo pc ho disabilitato l'accelerazione
          hardware ...
          Ebbene, pure le finestre di windows si aprono a
          fatica, mentre quando la riabilito giusto per
          ricordarmi che effettivamente non è il pc una m..
          tutto si apre
          velocementeL'accelerazione hardware delle schede video non e` solo sul 3D, ma anche sul 2D. Ma il collo di bottiglia spesso non e` la CPU, ma il bus.Per farti un esempio stupido, se disabiliti l'accelerazione hardware, la CPU dovra` riempire un buffer di memoria disegnando pixel per pixel ogni parte della finestra. Una volta pronta la deve passare sulla memoria della scheda video e poi mandarle il comando "passala a video".Su uno schermo 1280x1024 a 24 bit sono circa 5 MB da passare sul bus una sessantina di volte al secondo, e sempre 60 volte al secondo la CPU deve accorgersi che e` passato un sessantesimo di secondo, mandare i dati, mandare il segnale di disegno, e magari nel frattempo fare anche qualcos'altro, tipo star dietro al mouse, alla tastiera, al disco e alle applicazioni che stai facendo girare.E` logico che se la CPU invece manda solo roba tipo "tira una linea blu da 10,10 a 1200,10" il traffico e` molto inferiore, e la GPU, che non ha altro da fare che quello, lo fa piu` velocemente, disegnando direttamente nella sua scheda video invece che in un buffer di RAM.La stessa cosa estendila all'applicazione di trasparenze, texture, ecc.bye.
          • HotEngine scrive:
            Re: GPU questa sconosciuta... da NVIDIA
            - Scritto da: Shu
            Per farti un esempio stupido, se disabiliti
            l'accelerazione hardware, la CPU dovra` riempire
            un buffer di memoria disegnando pixel per pixel
            ogni parte della finestra. Una volta pronta la
            deve passare sulla memoria della scheda video e
            poi mandarle il comando "passala a
            video".Eh????
            Su uno schermo 1280x1024 a 24 bit sono circa 5 MB
            da passare sul bus una sessantina di volte al
            secondo, e sempre 60 volte al secondo la CPU deve
            accorgersi che e` passato un sessantesimo di
            secondo, mandare i dati, mandare il segnale di
            disegno, e magari nel frattempo fare anche
            qualcos'altro, tipo star dietro al mouse, alla
            tastiera, al disco e alle applicazioni che stai
            facendo
            girare.Prego? Mi sa che sei fermo allo ZX80 tu... La CPU non fa nulla di tutto questo. La memoria video è SULLA SCHEDA GRAFICA e la cpu non deve incaricarsi di riempirla ogni 50esimo di secondo, a quello ci pensa la GPU. La CPU, semmai, la aggiorna SOLO quando c'è una variazione sullo schermo. Quanto al disco, tastiera & compagnia ci sono i DMA e gli interrupt.
    • HotEngine scrive:
      Re: GPU questa sconosciuta... da NVIDIA
      - Scritto da: dav
      "oggi quando il tuo computer riproduce un video è
      il nostro chip che svolge quel lavoro, quando
      giochi è il nostro chip che svolge quel lavoro,
      quando rippi un film è il nostro chip che fa quel
      lavoro".
      A parte i giochi tutto il resto e' falso.Eh no... E' proprio vero. La decodifica mpeg, ad esempio, è fatta via hardware, alcuni chip grafici hanno inoltre integrata la h.264...
  • Max scrive:
    Ci penserà Windows Vista...
    Se Vista va in crash solo con il driver video della NVidia figurati con una scheda madre intera...ha ha ha...
    • BLah scrive:
      Re: Ci penserà Windows Vista...
      Prendi 200 metri di rincorsa e buttati in un fiume qualsiasi.
    • Vega scrive:
      Re: Ci penserà Windows Vista...
      quotoi driver nvidia fanno abbastanza schifo.
      • gino scrive:
        Re: Ci penserà Windows Vista...
        se il sistema va in crash per colpa di un driver...sarà più colpa del modo in cui il sistema fornisce le api o del driver scritto male?
        • mura scrive:
          Re: Ci penserà Windows Vista...
          - Scritto da: gino
          se il sistema va in crash per colpa di un
          driver...sarà più colpa del modo in cui il
          sistema fornisce le api o del driver scritto
          male?ma pure qua volete iniziare una flame war su vista ? Ma bastaok ha una marea di falle ma se è un driver scritto male che lo fa crashare per una volta non date contro a M$ ma a Nvidia che negli ultimi tempi ha fatto colare a picco la qualità dei suoi driver
        • Vega scrive:
          Re: Ci penserà Windows Vista...
          - Scritto da: gino
          se il sistema va in crash per colpa di un
          driver...sarà più colpa del modo in cui il
          sistema fornisce le api o del driver scritto
          male?hai capito male e vai per sentito dire....il sistema NON crasha!! è il driver che crasha e viene ripristinato da Win senza che Win si blocchi.Semplicemnte ti viene fuori una finestrella con scritto: "il driver pinco pallo ha smesso di rispondere ed è stato correttmanete ripristinato". tu clicchi ok e continui a lavorare. ma da fastidio che dopo tutti sti mesi, nvidia non sia stata capace di scrivere un cavolo di driver... e non stiamo parlando della dittucola da 4 euro di utile...
      • anonimo scrive:
        Re: Ci penserà Windows Vista...
        quoto pure io, a scapito di una buona scheda, i drivers nvidia sono odiosi
    • BLah scrive:
      Re: Ci penserà Windows Vista...
      Prendi 200 metri di rincorsa e buttati in un fiume qualsiasi.
  • Enjoy with Us scrive:
    Stronzate targate Nvidia
    Il futuro semmai è l'integrazione di ulteriori core GPU assieme a core CPU, come già si sta indirizzando AMD/ATI.Tali soluzioni forse all'inizio non potranno competere con la fascia alta del mercato delle GPU, ma vedrete che la stragrande maggioranza dei PC/Notebook del futuro non avrà più un chip grafico dedicato, che sopravviverà solo sulle game machine di fascia alta.Troppi i vantaggi: economici, integrazione, riduzione dei consumi, miglior gestione della memoria.Non mi credete?Feci questa stessa previsione alcuni anni fa (circa 15) per le schede audio), ditemi oggi quanti Pc vengono venduti senza l'audio integrato e quante schede audio vengono vendute!
    • PERPLESSO scrive:
      Re: Stronzate targate Nvidia
      e' vero ogni scheda madre ha una scheda audio integrata. ma io non le uso mai... fanno letteralmente schifo .. basta sostituirle con una Audigy anche di fascia bassa e tutto risplende.Audio MiglioreMinore occupazione processore.insomma io anche in LINUX ho fatto la mia scelta AUDIO ONBOARD ... addio
      • Kori scrive:
        Re: Stronzate targate Nvidia
        allora ti chiedo una cosa (seriamente eh, niente trollate), io ascolto mp3 sul pc spesso e volentieri, non ho mai avuto troppi problemi di cpu (ho un AMD sempron 2400+), però a volte capita che audacious inizi a macinare cpu in maniera oscena, ho sempre dato la colpa di questo alla playlist mastodontica, dici che con una scheda audio anche di fascia bassa potrei avere miglioramenti in questo senso?della qualità audio in se non mi preoccupo molto visto l'utilizzo che ne faccio (mp3 e divx e basta in pratica)grazie
    • Burp scrive:
      Re: Stronzate targate Nvidia
      - Scritto da: Enjoy with Us
      Feci questa stessa previsione alcuni anni fa
      (circa 15) per le schede audio), ditemi oggi
      quanti Pc vengono venduti senza l'audio integrato
      e quante schede audio vengono
      vendute!E bravo Nostradamus.Un po' come le schede video integrate, comode averle, se uno deve usare excel. Poi per cose serie metti una scheda video in uno slot.Stessa cosa per l'audio integrato, comodo averlo se devi fare "BEEP", per le cose serie, compri una scheda audio.
  • AdessoBasta scrive:
    Il Paradosso di Natale
    Per (i pochi) che ci lavorano esclusivamente col PC, computer di ultima generazione o con prestazioni grafiche mostruose saranno sempre superflui, mentre avranno la meglio nella scelta computer usati, un po' datati, e minimamente dotati.Questo concetto, per mia esperienza, viene perfino spinto all'eccesso dagli imprenditori nostrani.Io come ex commerciante venditore di PC, già più di dieci anni fa, l'ho chiamato Paradosso di Natale.Esso si verifica quando nel corso dell'anno il titolare di una piccola/media impresa fa richiesta di acquistare uno o più PC per la sua azienda, ma tiene a sottolineare che quel/quei PC dovranno fare esclusivamente normale routine da ufficio: videoscrittura, posta elettronica, foglio elettronico, ecc. Perciò sarebbe felice se gli venisse fatta una offerta a basso costo, senza fronzoli, meglio se di seconda mano. Anche per coloro che necessitano di una workstation per CAD o fotoritocco, la musica non cambia di molto.Ma nei giorni antecedenti il Natale - e qui sta il paradosso - il medesimo suddetto cliente, si presenta presso il punto vendita tenendo per mano suo figlio, e esordisce chiedendo di acquistare un PC dell'ultima generazione con il superschedone grafico, e il biprocessore (di allora) atomico e tanta RAM quanta se ne riesce a infilare dentro e il disco grande molto grande e il monitor, almeno 21" ... sà mio figlio ci deve giocare.Con queste teste è chiaro che NVIDIA fa affari d'oro e il lavoro in ufficio si salva, anzi si perde ancora sui floppy disk e si perde tempo su ferraglie vergognose. Oppure succede come quell'amministratore di una società mia cliente e in aria di fallimento, sulla cui scrivania non c'era il bilancio, ma bensì Nautica. Ma questa è un'altra storia...
    • Mr. Pink scrive:
      Re: Il Paradosso di Natale
      Proprio vero quello che dici. Però mentre trovo davvero assurdo e paradossale che si metta a repentaglio il lavoro della propria azienda affidandolo a vecchie carrette stanche pur di risparmiare qualche euro, non mi stupisce affatto che la gente si voglia godere i lussi a casa propria comprandosi giocattoloni costosi per sè e i propri figli (di solito una scusa).
    • Parolaro scrive:
      Re: Il Paradosso di Natale
      A parte RAM, disco rigido, scheda madre etc.... mi sai dire cosa offre di buono per il lavoro NVIDIA ad un utente aziendale che non faccia CAD, modellazione 3D o altre cose simili?Cioè, perchè io azienda devo comprare un computer con una geforce 8800 se devo usare quel computer per word processing, email, utilizzo di erp, crm o altre cose simili?
      • danieleMM scrive:
        Re: Il Paradosso di Natale
        infatti è perfettamente inutile la scheda video 3d per questi compiti.. una qualsiasi scheda video integrata sarà più che sufficiente allo scopo e anzi.. anche prendendo una scheda video di ultima generazione non cambierebbe proprio nullain futuro quando le GPU gestiranno anche la fisica e saranno utilizzate per il calcolo parallelo anche nei programmi "standard" sarà un altro discorso...ma io parlo di oggi perché il domani accennato qui sopra non è immediato
      • xbomber scrive:
        Re: Il Paradosso di Natale
        Anzi... Si peggiora... I consumi crescono a dismisura e la bolletta ENEL idem... Per non parlare dell'inquinamento legato alla bolletta...
      • amedeo scrive:
        Re: Il Paradosso di Natale
        Non solo, per quanto mi risulta, un utente aziendale che faccia CAD e' piu' propenso ad indirizzarsi verso schede tipo le Matrox che sono piu' adeguate a quel tipo di elaborazione.
        • dont feed the troll scrive:
          Re: Il Paradosso di Natale
          - Scritto da: amedeo
          Non solo, per quanto mi risulta, un utente
          aziendale che faccia CAD e' piu' propenso ad
          indirizzarsi verso schede tipo le Matrox che sono
          piu' adeguate a quel tipo di
          elaborazione.Non è che le Quadro facciano cagare, eh
          • amedeo scrive:
            Re: Il Paradosso di Natale
            Non conoscendo bene il settore specifico non sapevo delle Quadro, che sembrano dello stesso tipo. Ma mi sembra che nel discorso si parlasse di GeForce come GPU destinata a fare piazza pulita e credo che le Quadro siano (come le Matrox) piu' adatte ad un uso 'tecnico' che multimediale
      • anonimo scrive:
        Re: Il Paradosso di Natale
        Forse per il piacere di avere un sistema reattivo che dia una certa piacevolezza e fluidità nell'utilizzo? Oppure per te va bene risparmiare qualche centinaia di euro e lavorare con un cartocio grattoso che impiega un quarto d'ora per accendersi e sta fermo dieci secondi ogni volta che salvi un documento?
        • amedeo scrive:
          Re: Il Paradosso di Natale
          Cosa c'entra il fatto di avere una scheda video da giochi (ovvero molto potente) con l'avere un sistema reattivo ? Il tempo che il PC impiega a partire ed a leggere e salvare i documenti ha a che fare con la CPU, la quantita' di memoria e le prestazioni dei dischi, non con la scheda grafica. Quest'ultima puo' essere utile se ami un desktop con animazioni ed effetti vari ma se usi il PC solo per lavorare (e sono ancora in tanti a farlo) e magari imposti al minimo gli effetti puramente scenici (io ad esempio lo faccio sempre anche con macchine potenti, per questioni di gusto), puoi benissimo risparmiarti qualche centinaia di euro dato che le GPU integrate bastano allo scopo.Inoltre se tieni conto che con circa 600 euro puoi comprare un PC da ufficio, perche' spenderne altrettanti per avere una scheda grafica che poi non sfrutti ?
          • Mr. Pink scrive:
            Re: Il Paradosso di Natale
            L'utente aziendale è difficile che abbia bisogno di pc potenti. Però nei paesi industrializzati la tendenza è almeno un pc per famiglia. Un bel mercato per le schede grafiche!
    • Poldo scrive:
      Re: Il Paradosso di Natale
      Secondo me tutto gira, come sempre, in base all'utilizzo che si fa di un oggetto: Se io azienda decido di comprare 10 automobili aziendali per i miei dipendenti, che girano in un raggio di 30 km, di certo non compro 10 bmw serie 3 cabrio, mi accontento di 10 fiat panda van per esempio, mentre per me personalmente posso anche comprarmene una di bmw, poichè la utilizzerei in tutt'altro modo e la sfrutterei per il mio piacere, anche solo per essere sicuro farmi 1000km senza perdere la schiena. ^__^La stessa cosa vale per i pc: per la mia azienda, che usa i computer solo per "lavori no gpu" (office, navigare, posta ecc...) non comprerò certo pc che mi costano 200 euro l'uno in più causa scheda video, ma per me, a casa mia, con figli che giocano a world of warcraft o smanettano con un po' di programmi 3d, moglie che si noleggia dvd a iosa, io che monto i filmatini della videocamera digitale, e chi più ne ha più ne metta, vorrei un computer che possa coprire ogni esigenza, senza pentimenti e senza il rischio di sentirmi dire da un tecnico "mi spiace ma a questo pc non è permesso fare... perchè manca di..." ecc...Mi spiace dirlo (soprattutto per un discorso economico) ma se si vuole che un computer sia davvero performante al 100% e che veramente permetta di poter essere utilizzato al pieno delle potenzialità che un computer ha... beh... una bella scheda video 3d è necessaria, senza fare i burini con le top di gamma da 600 , buone le si trova già a 130/150 .Certo, tutto sta nel sapere cosa si compra ed, importantissimo, dove (le grosse catene di informatica, come mediaworld ecc., tengono prodotti che accontentino tutti, dal privato al dirigente aziendale, quindi nel 90% dei casi i pc hanno la scheda video 3d, mentre se si va nei negozi singoli di informatica te lo montano come vuoi, e ti fanno pure assistenza), ma alla fin fine tutto si riduce nell'uso che uno fa del pc e da quanto sfrutta le potenzialità che un pc a pieno delle sue caratteristiche può dare.
  • cicco ingrassia scrive:
    PS3
    Mi pare che il tizio-nVidia non abbia le idee molto chiare:Hanno fornito LORO la GPU per la PS3 che, casualmente, ha una GPU piuttosto tradizionale, mentre ha una CPU MOSTRUOSA, e ora dicono che la CPU è morta ?Allora togliete il Cell dalla PS3, sostituitelo con un bel Celeron, e vediamo come funziona bene, con la VOSTRA GPU...
  • danieleMM scrive:
    Delirio nVidia
    la GPU non può sostituire un processore.. e il processore resta comunque il componente più utilizzato da un computer!!!Che la GPU si possa evolvere fornendo, anche, funzioni simili a quelle dei processori non ci piove... oggi però non è così ed affermare che lo sia dimostra una profonda ignoranza nella materia...probabilmente il tizio che ha detto queste cose o scherzava, o era sbronzo o più probabilmente è "solo" un uomo marketing
    • marietto2008 scrive:
      Re: Delirio nVidia
      delirio di onnipotenza a scopo di marketing. ogni metodo e' buono per attirare su di se l'attenzione dei media. berlusconi docet.
      • Mr. Pink scrive:
        Re: Delirio nVidia
        Ci mancherebbe che il fornaio disprezzasse il pane che produce. E' ovvio che se il discorso l'avesse fatto il CEO di Intel avrebbe un altro peso. Però chissà, forse la tendenza è proprio quella di realizzare sistemi operativi e programmi dove l'interfaccia è la componente più esigente di risorse. Le interfacce ricche piacciono a tutti, principianti ed esperti. Però i primi non si vergognano ad ammetterlo mentre gli addetti ai lavori di fronte alla novità storcono il naso. Le definiscono "frivolezze e superfluità" ma poi alla fine ci cascano anche loro :) Se così non fosse lavoreremmo ancora tutti con Unix puro e Dos.
        • Parolaro scrive:
          Re: Delirio nVidia
          Le risorse necessarie per gestire un desktop con effetti 3d ce le hai anche con una GPU minimale. I videogiochi 3d stanno sempre più spostandosi dal mercato PC a quello consolle, e sono quasi gli unici che necessitano di GPU potenti.nvidia ha solo paura delle soluzioni integrate che prima o poi intel e amd tireranno fuori, da qui il FUD- Scritto da: Mr. Pink
          Ci mancherebbe che il fornaio disprezzasse il
          pane che produce. E' ovvio che se il discorso
          l'avesse fatto il CEO di Intel avrebbe un altro
          peso.


          Però chissà, forse la tendenza è proprio quella
          di realizzare sistemi operativi e programmi dove
          l'interfaccia è la componente più esigente di
          risorse.


          Le interfacce ricche piacciono a tutti,
          principianti ed esperti. Però i primi non si
          vergognano ad ammetterlo mentre gli addetti ai
          lavori di fronte alla novità storcono il naso. Le
          definiscono "frivolezze e superfluità" ma poi
          alla fine ci cascano anche loro :)


          Se così non fosse lavoreremmo ancora tutti con
          Unix puro e
          Dos.
        • lroby scrive:
          Re: Delirio nVidia
          - Scritto da: Mr. Pink
          Le interfacce ricche piacciono a tutti,
          principianti ed esperti. Però i primi non si
          vergognano ad ammetterlo mentre gli addetti ai
          lavori di fronte alla novità storcono il naso. Le
          definiscono "frivolezze e superfluità" ma poi
          alla fine ci cascano anche loro :)mi ha fatto schifo quando è uscito xp l'interfaccia grafica "fumettosa" Luna di XP, tanto è vero che la disabilito sempre e comunque, stessa cosa con AERO (ancora peggiore di Luna).fanno veramente vomitare e rallentano un sacco i pc (sopratutto quelli che non hanno hw abbastanza potente rispetto al s.o. in uso su tale pc)non tralascio nemmeno compiz e i suoi effetti 3d ridicoli su Linux, NON sono utili ad un miglior funzionamento dei s.o.sono solo specchietti per niubbi (x allodole scusate :D)LROBY
          • anonimo scrive:
            Re: Delirio nVidia
            anche l'occhio vuole la sua parte, anzi, c'e' chi dice che l'immagine è tutta... poi se preferisci una rozzona brutta e antipatica ad una graziosa ed elegante donnina, questo sta a te.
          • lroby scrive:
            Re: Delirio nVidia
            - Scritto da: anonimo
            anche l'occhio vuole la sua parte, anzi, c'e' chi
            dice che l'immagine è tutta... poi se preferisci
            una rozzona brutta e antipatica ad una graziosa
            ed elegante donnina, questo sta a
            te.paragone che IMHO non calza molto a pennello..se corri in F1 o in MOTOGP, non stai a vedere se il tuo mezzo ha i fiori disegnati sulla carena ma piuttosto vuoi che vada il + veloce possibile..LROBY
      • chojin scrive:
        Re: Delirio nVidia
        - Scritto da: marietto2008
        delirio di onnipotenza a scopo di marketing. ogni
        metodo e' buono per attirare su di se
        l'attenzione dei media. berlusconi
        docet.Voi di sinistra avete il cervello bacato con l'ossessione e l'odio per Berlusconi. Pensi che Nvidia e markettari di Nvidia siano di destra per caso? Sono di sinistra, fidati.
        • Gips scrive:
          Re: Delirio nVidia
          Ma che centrano destra e sinistra... ha solo fatto un esempio sulle grandi sparate al fine dell'immagine, dell'apparire e del far parlare di se... Berlusconi ne sa di queste cose (o almeno, il suo staff è molto preparato sull'argomento...) e marietto2008 non ha fatto altro che sottolinearlo, paragonando l'uscita di Nvidia alle note uscite del silvio... se poi la si vuole buttare in politica, fate pure, ma qui si deve parlare di informatica.... no?Gips
        • www.aleksfalcone.org scrive:
          Re: Delirio nVidia
          - Scritto da: chojin
          - Scritto da: marietto2008

          delirio di onnipotenza a scopo di marketing.
          ogni

          metodo e' buono per attirare su di se

          l'attenzione dei media. berlusconi

          docet.

          Voi di sinistra avete il cervello bacato con
          l'ossessione e l'odio per Berlusconi.???Hai problemi a capire l'italiano?Coda di paglia?Ossessione berlusconiana?Delirio di persecuzione?Bello, calmati!
        • dont feed the troll scrive:
          Re: Delirio nVidia
          - Scritto da: chojin
          - Scritto da: marietto2008

          delirio di onnipotenza a scopo di marketing.
          ogni

          metodo e' buono per attirare su di se

          l'attenzione dei media. berlusconi

          docet.

          Voi di sinistra avete il cervello bacato con
          l'ossessione e l'odio per Berlusconi.
          Per odiare quel nano malefico non è necessario essere di sinistra, è sufficiente avere un QI a 3 cifre.
          Pensi che Nvidia e markettari di Nvidia siano di
          destra per caso? Sono di sinistra,
          fidati.Boom, bella trollata.
      • paolino paperino scrive:
        Re: Delirio nVidia
        Ehh gia' ogni volta che apro una shell e do qualche make ringrazio nVidia per la sua GPU....ah aha ha senza lei nn vedrei cosi' bene i caratteri:-) che ognuno s'occupi del suo va che e' meglio e lo veda di far bene, come per es driver OO usufruibili, prima di dichiarare simili cazzate
    • Lemon scrive:
      Re: Delirio nVidia
      - Scritto da: danieleMM
      la GPU non può sostituire un processore.. e il
      processore resta comunque il componente più
      utilizzato da un
      computer!!!

      Che la GPU si possa evolvere fornendo, anche,
      funzioni simili a quelle dei processori non ci
      piove... oggi però non è così ed affermare che lo
      sia dimostra una profonda ignoranza nella
      materia...
      probabilmente il tizio che ha detto queste cose o
      scherzava, o era sbronzo o più probabilmente è
      "solo" un uomo
      marketingInvece io credo che ci sia una grande verita' in quello che dice: ormai sono stati sfornati i quad core ed i limiti "fisici" di una CPU sono stati quasi raggiunti (non per niente aggiungono core). Dove c'e' ancora da espandersi invece e' nella GPU. Certo, se devi fare calcoli matematici o altro che sforza la CPU della GPU non te ne frega niente, ma tante altre applicazione invece sfruttano la scheda video. Io per esempio ho ancora un P4 con HT a 3Ghz da una vita, per giocare decentemente ho solo dovuto cambiare scheda video ogni anno. Ripeto: per me il settore GPU ha maggiore possibilita' di espansione ora come ora.
      • chojin scrive:
        Re: Delirio nVidia
        - Scritto da: Lemon
        - Scritto da: danieleMM

        la GPU non può sostituire un processore.. e il

        processore resta comunque il componente più

        utilizzato da un

        computer!!!



        Che la GPU si possa evolvere fornendo, anche,

        funzioni simili a quelle dei processori non ci

        piove... oggi però non è così ed affermare che
        lo

        sia dimostra una profonda ignoranza nella

        materia...

        probabilmente il tizio che ha detto queste cose
        o

        scherzava, o era sbronzo o più probabilmente è

        "solo" un uomo

        marketing

        Invece io credo che ci sia una grande verita' in
        quello che dice: ormai sono stati sfornati i quad
        core ed i limiti "fisici" di una CPU sono stati
        quasi raggiunti (non per niente aggiungono core).
        Dove c'e' ancora da espandersi invece e' nella
        GPU. Certo, se devi fare calcoli matematici o
        altro che sforza la CPU della GPU non te ne frega
        niente, ma tante altre applicazione invece
        sfruttano la scheda video. Io per esempio ho
        ancora un P4 con HT a 3Ghz da una vita, per
        giocare decentemente ho solo dovuto cambiare
        scheda video ogni anno. Ripeto: per me il settore
        GPU ha maggiore possibilita' di espansione ora
        come
        ora.Raggiunti i limiti fisici di una CPU ? Ma che diavolo dici?"Aggiungono solo core" ??! E ti sembra nulla ? Entro il 2010-2011 Intel dovrebbe rilasciare le CPU con architettura TeraScale da 32core fisici/64 virtuali.
        • Lemon scrive:
          Re: Delirio nVidia


          Raggiunti i limiti fisici di una CPU ? Ma che
          diavolo
          dici?
          "Aggiungono solo core" ??! E ti sembra nulla ?
          Entro il 2010-2011 Intel dovrebbe rilasciare le
          CPU con architettura TeraScale da 32core
          fisici/64
          virtuali.Scusa, non so cosa dirti, devo aver tratto conclusioni affrettate leggendo articoli tipo questo:http://www.levysoft.it/archivio/2005/03/17/levoluzione-della-legge-di-moore/(dalla meta' in poi circa)Inoltre avevo fatto un altro ragionamento (evidentemente errato): se iniziano a vendere "macchine" con piu' motori anziche' migliorare le prestazione di un singolo motore evidentemente o il motore non e' pi migliorabile o non e' conveniente farlo. Questo senza togliere nulla alle capacita' dei progettisti, non mi pare affatto una cosa da poco.Mi domando inoltre se il TeraScale da 32 core avra' le stesse dimensioni di un processore odierno.
      • anonimo scrive:
        Re: Delirio nVidia
        il futuro sta nella specializzazione, le cpu per la virgola mobile e la gpu per gli integer
        • Shu scrive:
          Re: Delirio nVidia
          - Scritto da: anonimo
          il futuro sta nella specializzazione, le cpu per
          la virgola mobile e la gpu per gli
          integerLa GPU per gli interi??Ma se la sua specializzazione e` proprio il rendering, quindi calcoli in virgola mobile!Il futuro (anzi, il prossimo presente) sta si` nella specializzazione ma soprattutto nel parallelismo.Le GPU oggi possono fare quello che fanno grazie all'AGP prima e al PCIe dopo che permettono loro di accedere direttamente alla RAM. Puoi mettere i dati compressi in RAM,passarli velocemente alla scheda video che li decomprime e li visualizza.In pratica hai un secondo PC su scheda che fa solo quello (infatti ha una sua RAM, un suo bus interno, e ora anche un canale per il parallelismo, il crossfire/sli/comelochiamano).Probabilmente se dai in pasto alla GPU uno zip da decomprimere impiega piu` tempo di una CPU della stessa fascia, come la CPU impiega piu` tempo della GPU a decodificare un video.Si tratta semplicemente di specializzazioni diverse, e ci sono da tempi immemori, una volta li chiamavano DSP, poi si sono evoluti in GPU.In pratica stanno "ricostruendo" l'architettura di Amiga: un bus che consente l'accesso alla RAM a diversi coprocessori (GPU, scheda audio) oltre alla CPU, solo con la progressione tecnologica che c'e` stata (quindi GiB/sec di transfer, per esempio, e sincronizzazione e allocazione in tempo reale invece di time-shared).
    • www.aleksfalcone.org scrive:
      Re: Delirio nVidia
      - Scritto da: danieleMM
      la GPU non può sostituire un processore.. e il
      processore resta comunque il componente più
      utilizzato da un
      computer!!!

      Che la GPU si possa evolvere fornendo, anche,
      funzioni simili a quelle dei processori non ci
      piove... oggi però non è così ed affermare che lo
      sia dimostra una profonda ignoranza nella
      materia...
      probabilmente il tizio che ha detto queste cose o
      scherzava, o era sbronzo o più probabilmente è
      "solo" un uomo marketingoppure è tutta Nvidia :-)(non ho resistito)
    • iRoby scrive:
      Re: Delirio nVidia
      Ti ricordi cosa faceva Amiga con una CPU tutto sommato lenta e datata e il contorno dei chip custom?Ecco ripensaci e ti renderai conto che in nVidia non hanno tutti i torti.Certo l'architettura del PC fosse migliore sai quante altre cose si potrebbero far fare a tutta l'elettronica di contorno?Se i chip audio avessero anche loro un DSP potente, la GPU, la CPU ed un bus che permette alla GPU di accedere al DSP autonomamente...Certo un computer come Amiga è come un Mac, un hardware certo uguale per tutti. I PC sono invece dei cassoni aperti e in cui c'è un'accozzaglia di standard diversi, chip e tecnologie tenute in piedi dai loro driver. E nessuna sinergia.
      • anonimo scrive:
        Re: Delirio nVidia
        Se si pensa che la microsoft deve regolarmente pagare multe su multe per l'antitrust, se non ci fosse il caro vecchio zio bill, a quest'ora quante case produttrici di componenti non potrebbero sopravvivere? Se fosse per per il caro steve, solo apple.
  • Skynet scrive:
    GeForce tutta la vita
    La strada è questa ed è stata segnata gia da un po di tempo. Oramai qualunque pc esegue nel 90% dei casi contenuti multimediali, e tutto viene svolto dalla GPU.Un tempo erano solo i giochi a trarne profitto, mentre adesso 1 applicazione su 2 viene eseguita (almeno in parte) dalla scheda grafica.Ho sempre comprato prodotti nvidia, e mai li abbandonerò. Se dovesse essere questo il futuro... ben venga.
    • Parolaro scrive:
      Re: GeForce tutta la vita
      - Scritto da: Skynet
      Un tempo erano solo i giochi a trarne profitto,
      mentre adesso 1 applicazione su 2 viene eseguita
      (almeno in parte) dalla scheda
      grafica.Questo è quello che pensano diversi videogiocatori. Per esperienza diretta non mi risulta minimamente, nemmeno restringendo la propria visuale all'utenza domestica.La realtà è molto diversa: presto le GPU serie serviranno solo per le consolle, per il 95% dei pc normali basterà una CPU + GPU da prestazioni minimali integrata, quello che basta per riprodurre qualche video e far fluttuare qualche finestrella, che è la strada che stanno prendendo intel e amd e che nvidia non può prendere.
      • amedeo scrive:
        Re: GeForce tutta la vita
        Penso che difficilmente le GPU ad alte prestazioni potranno essere sostituite: man mano che si va avanti ed aumentano le prestazioni, i giochi acquisiscono una grafica sempre piu' sofisticata. Se ci sono in giro dei PC con doppia scheda video, probabilmente e' perche' continua ad esserci qualcuno che non e' mai abbastanza soddisfatto delle prestazioni e continuera' ad optare per una macchina dove sia possibile un upgrade per la futura nuova scheda ultramegapotente.Del resto le GPU integrate attuali sono ben piu' potenti delle schede video dedicate di alcuni anni fa ma la storia ci dimostra che il mercato delle schede dedicate non si e' fermato; in generale i chip 'sorpassati' per il mercato addon sono passati a quello embedded che risulta cosi' sempre un passo indietro.
        • lroby scrive:
          Re: GeForce tutta la vita
          - Scritto da: amedeo
          Penso che difficilmente le GPU ad alte
          prestazioni potranno essere sostituite: man mano
          che si va avanti ed aumentano le prestazioni, i
          giochi acquisiscono una grafica sempre piu'
          sofisticata. Se ci sono in giro dei PC con doppia
          scheda video, probabilmente e' perche' continua
          ad esserci qualcuno che non e' mai abbastanza
          soddisfatto delle prestazioni e continuera' ad
          optare per una macchina dove sia possibile un
          upgrade per la futura nuova scheda
          ultramegapotente.

          Del resto le GPU integrate attuali sono ben piu'
          potenti delle schede video dedicate di alcuni
          anni fa ma la storia ci dimostra che il mercato
          delle schede dedicate non si e' fermato; in
          generale i chip 'sorpassati' per il mercato addon
          sono passati a quello embedded che risulta cosi'
          sempre un passo
          indietro.Vi segnalo la mia testimonianza personale in merito,ho assemblato 2 pc quasi identici se non fosse per il fatto che su 1 (del mio amico) vi ho montato una GEFORCE 8800GTS DDR3 512mb, stupenda nei giochi e dovreste vedere come giravano alla grande!! titoli come crysis,assassin's creed e Call of duty 4 ..bene.. poi ho provato gli stessi titoli sull'altro pc che differiva solo per il fatto che monta 1 hd3870x2 1gb ddr3, ragazzi non avete idea della differenza di fps e di dettagli grafici che quest'ultima presentava rispetto alla 8800.. e adesso mi rimane solo + imparare come installare e sopratutto far riconoscere ed usare in crossfire la gemella (ne ho comprate 2 di queste schede) per poter sfruttare tutte e 4 le gpu..ciao a tuttiLROBY
          • dont feed the troll scrive:
            Re: GeForce tutta la vita
            differenza di prezzo tra le due schede?
          • lroby scrive:
            Re: GeForce tutta la vita
            - Scritto da: dont feed the troll
            differenza di prezzo tra le due schede?mica tanto.. era attorno ai 100 euro..se calcoli la doppia gpu, il doppio della ram non è poi molto IMHOLROBY
          • dont feed the troll scrive:
            Re: GeForce tutta la vita
            - Scritto da: lroby
            - Scritto da: dont feed the troll

            differenza di prezzo tra le due schede?
            mica tanto.. era attorno ai 100 euro..
            se calcoli la doppia gpu, il doppio della ram non
            è poi molto
            IMHO
            LROBYNo, infatti, era solo per valutare meglio le due soluzioni.Sinceramente, attualmente ho una ATI e ho rimpianto lungamente le Nvidia...tenderei + a scegliere quest'ultima...certo le due GPU sono interessanti...
      • Nauseato scrive:
        Re: GeForce tutta la vita
        Quoto, Nvidia a fatto i conti senza l'oste, e il suo mentore è proprio furi dalla realtà!
    • chojin scrive:
      Re: GeForce tutta la vita
      - Scritto da: Skynet
      La strada è questa ed è stata segnata gia da un
      po di tempo. Oramai qualunque pc esegue nel 90%
      dei casi contenuti multimediali, e tutto viene
      svolto dalla
      GPU.
      Un tempo erano solo i giochi a trarne profitto,
      mentre adesso 1 applicazione su 2 viene eseguita
      (almeno in parte) dalla scheda
      grafica.
      Ho sempre comprato prodotti nvidia, e mai li
      abbandonerò. Se dovesse essere questo il
      futuro... ben
      venga.Nvidia è alla frutta. Sono terrorizzati dall'avvento di Larrabee CGPU di Intel previsto per inizio 2009. Tutto eseguito dalla GPU ? Ma dove ?
    • tDv scrive:
      Re: GeForce tutta la vita
      - Scritto da: Skynet
      La strada è questa ed è stata segnata gia da un
      po di tempo. Oramai qualunque pc esegue nel 90%
      dei casi contenuti multimediali, e tutto viene
      svolto dalla
      GPU.
      Un tempo erano solo i giochi a trarne profitto,
      mentre adesso 1 applicazione su 2 viene eseguita
      (almeno in parte) dalla scheda
      grafica.
      Ho sempre comprato prodotti nvidia, e mai li
      abbandonerò. Se dovesse essere questo il
      futuro... ben
      venga.Si certo, prova a giocare con un PIV e una 9800GX2 e vedi che risate...
  • Overture scrive:
    Per crederci ci credo
    Adesso devono solo convincere il maggior produttore di sistemi operativi a riscrivere la baracca per trarre vantaggio da una gpu anche per scopi meno specializzati.
    • amedeo scrive:
      Re: Per crederci ci credo
      Probabilmente non e' necessario, la CPU continuera' a coprire il proprio ruolo di unita' centrale mentre la GPU permettera' l'utilizzo di un sistema operativo dove il lavoro e' 90% di grafica (animazioni, effetti vari ecc.) senza rallentare il pc.Quello di cui tengono poco conto e' che ci sono ancora tanti utenti che non hanno bisogno di grandi prestazioni multimediali, dato che molte aziende hanno la pessima abitudine di richiedere ai propri dipendenti di lavorare invece di giocare, guardare film e rippare dvd :-)
      • Overture scrive:
        Re: Per crederci ci credo
        Dovrebbero fare dei pc da ufficio dotati di semplici acceleratori 2D senza 3D e supporto a codifiche complesse come i video.
        • Lemon scrive:
          Re: Per crederci ci credo
          - Scritto da: Overture
          Dovrebbero fare dei pc da ufficio dotati di
          semplici acceleratori 2D senza 3D e supporto a
          codifiche complesse come i
          video.E ci sono gia', tutti quelli con scheda video integrata in motherboard.
          • amedeo scrive:
            Re: Per crederci ci credo
            Condivido: se guardate il listino Acer (e' quello che conosco meglio ma penso sia una tendenza anche degli altri grossi marchi), le differenze principali tra la linea business e consumer stanno proprio nel privilegiare le prestazioni da ufficio (cpu, sistema operativo) per la prima e quelle multimediali (grafica prevalentemente) per la seconda; e in genere la linea business ha la scheda video integrate mentre la linea home ha la scheda video dedicata
          • Overture scrive:
            Re: Per crederci ci credo
            Quei chip fanno già troppo. Io dico proprio tornare ai tempi delle S3 anzi no del blitter su amiga
    • LuNa scrive:
      Re: Per crederci ci credo
      quoto, infatti secondo me questo tipo di tecnologia prima che scenda sui desktop passerà molto tempo. E di certo amd e intel non si fanno schiacciare i piedi ed il loro dominio incontrastato. Non staranno a guardare e la torta non si dividerà così facilmente in 3 parti o adderittura in una sola. NVidia metti a freno la lingua.
Chiudi i commenti