USA: Google Books esagera

Obiezioni all'accordo da 125 milioni da parte del Copyright Office statunitense. Che teme un lungo periodo in cui Book Search sarà impunemente libero da responsabilità nell'ambito del diritto d'autore

Roma – “Questo è un accordo che potrebbe colpire i diritti esclusivi di milioni di autori ed editori, negli Stati Uniti e all’estero, per quanto riguarda le loro capacità di creare nuovi prodotti su nuovi mercati, per anni e anni a venire”. A dichiararlo, Marybeth Peters, a capo del Copyright Office statunitense, agenzia che si preoccupa di amministrare le pratiche legate alla tutela del diritto d’autore. Un recente documento ufficiale ha infatti riportato le principali obiezioni mosse dall’autorità statunitense all’affaire tra Book Search e gli autori ed editori riuniti nella Authors Guild.

“L’accordo – si legge nel documento presentato al Congresso statunitense – andrebbe a creare dei meccanismi attraverso cui Google continuerebbe a digitalizzare impunemente negli anni a venire, creando, con nostra grande sorpresa, un numero ancora maggiore di prodotti commerciali senza un espresso consenso da parte dei detentori dei diritti”. BigG, stando alle preoccupazioni di Peters, verrebbe assolta da ogni responsabilità legata alla fondamentale ricerca dell’autorizzazione da parte di autori ed editori. Impensabile, considerato che si tratta di un’entità commerciale che, come tale, opera a proprio vantaggio economico.

Stando alla visione del Copyright Office , si tratterebbe anche di un problema legato alle competenze giudiziarie, così come attualmente stabilite dalle leggi statunitensi in materia. Il settlement , in altre parole, sconfinerebbe: i risultati dell’accordo finirebbero per confliggere con le attuali policy sul diritto d’autore, che tradizionalmente possono essere modificate solo dal Congresso.

David Drummond, legale di Google presente all’udienza, ha difeso l’accordo da 125 milioni di dollari, affermando che permetterebbe a editori e autori di conservare il proprio controllo sulle opere , andando poi ad allargare la platea dei lettori, mettendo a disposizione milioni di libri fuori catalogo che sono attualmente nascosti all’interno delle principali biblioteche.

Le obiezioni mosse dall’istituzione statunitense sarebbero infondate , almeno stando alle dichiarazioni di Drummond. “Pensiamo che l’accordo sia perfettamente legale – ha spiegato al Congresso – e che inoltre sia ben strutturato, all’interno delle linee guida che regolano una class action . E non va certo ad usurpare il potere del Congresso degli Stati Uniti, che può continuare a fare come vuole”. Drummond ha inoltre respinto le teorie che vedrebbero Google come un possibile futuro monopolista: “i libri fuori catalogo non guidano il mercato degli e-book . Non abbiamo alcuna quota di mercato in questo ambito, quindi come potremmo essere considerati dei monopolisti se ancora non operiamo in questo segmento?”.

Il legale della Grande G ha poi presentato una proposta che preveda la disponibilità da parte di Google a lasciare che qualsiasi rivenditore di libri possa accedere agli archivi elettronici di Mountain View . “Questo significa – ha spiegato Drummond – che qualsiasi book seller , Amazon o Barnes & Noble o Microsoft, sarà in grado di vendere testi coperti dall’accordo. Abbiamo, in sostanza, un reseller program “.

Il programma in questione avrebbe in piano di dividere i ricavi: Google otterrebbe il 37 per cento dei profitti dalla vendita di libri in formato digitale attraverso il suo servizio; mentre il reseller si prenderebbe “la parte più significativa” di questa percentuale di guadagno . Paul Misener, vice-presidente Amazon per la global policy , ha tuttavia risposto picche: “Internet non è mai stata coinvolta nell’intermediazione. Siamo felici di lavorare con i detentori dei diritti senza l’aiuto di nessuno”.

Mauro Vecchio

La tua email sarà utilizzata per comunicarti se qualcuno risponde al tuo commento e non sarà pubblicato. Dichiari di avere preso visione e di accettare quanto previsto dalla informativa privacy

  • GoldenBoy scrive:
    Ma la scheda video ce la farà?...
    ...A reggere il "carico" di dover visualizzare 6 monitor?Già ci son giochi che a risoluzioni umane fanno a malapena 60fps...a queste risoluzioni sovrumane quanti fps faranno? 1-2?
    • Enjoy with Us scrive:
      Re: Ma la scheda video ce la farà?...
      - Scritto da: GoldenBoy
      ...A reggere il "carico" di dover visualizzare 6
      monitor?
      Già ci son giochi che a risoluzioni umane fanno a
      malapena 60fps...a queste risoluzioni sovrumane
      quanti fps faranno?
      1-2?Touche!Chiaramente l'ambito applicativo non può essere quello consumer, posso capire certi utilizzi aziendali, ma per il resto è inutile!
  • nome e cognome scrive:
    Non so se l'avete notato ma ..
    prima dell'aggiornamento PI ogni giorno aveva una decina di nuovi articoli, tutti visibili dopo la mezzanotte.Ora invece inseriscono 2-3 nuove news ad intervalli di giorni... Mah ^^
  • Giovanni Mauri scrive:
    virtualizzare?
    Io sapevo che per avere il multiuser su un computer era sufficiente virtualizzare.. e per avere uno schermo grande comprarne uno grande..mah
  • chojin999a scrive:
    Che stupidaggine.Comprate schermo grande
    piuttosto! Non ha alcun senso, come mostrano le foto... ha senso spendere soldi per prendere 6 monitor piccolini per avere un'area di visione equivalente ad un 46" o un 52" di schermo? Quanto si risparmia mai? E vale la pena visto che poi si hanno tutti i tagli interni allo schermo virtuale così creato con le varie cornici? Ben diverso e più economico e non buttar via soldi comprarsi una HDTV grande vera 46" o 52" o superiore. Oppure comprarsi un proiettore 1080p. Non c'è paragone rispetto ad una soluzione multi-monitor, di qualità amatoriale e mai un vero schermo gigante. A maggior ragione se si hanno soldi da spendere senza problemi la cosa più sensata è comprarsi lo schermo più grande e di miglior qualità che ci si può permettere, non certo assemblarsi uno schermo virtuale grande ma di pessima qualità prendendo piccoli monitor. E se non si è ricchi buttar soldi su una soluzione del genere ha ancora meno senso, anche in termini di consumo elettrico sulla bolletta. AMD è alla frutta. Questa stupidaggine non venderà un cavolo malgrado il marketing, solo qualche fanatico e qualche azienda per delle presentazioni potrebbe comprarla (ove non vi sia un tecnico preparato che immediatamente dovrebbe consigliare un proiettore professionale di fascia alta in azienda).
    • So sempre io scrive:
      Re: Che stupidaggine.Comprate schermo grande
      - Scritto da: chojin999a
      piuttosto! Non ha alcun senso, come mostrano le
      foto... ha senso spendere soldi per prendere 6
      monitor piccolini per avere un'area di visione
      equivalente ad un 46" o un 52" di schermo? Quanto
      si risparmia mai? E vale la pena visto che poi si
      hanno tutti i tagli interni allo schermo virtuale
      così creato con le varie cornici?

      Ben diverso e più economico e non buttar via
      soldi comprarsi una HDTV grande vera 46" o 52" o
      superiore. Oppure comprarsi un proiettore 1080p.

      Non c'è paragone rispetto ad una soluzione
      multi-monitor, di qualità amatoriale e mai un
      vero schermo gigante. A maggior ragione se si
      hanno soldi da spendere senza problemi la cosa
      più sensata è comprarsi lo schermo più grande e
      di miglior qualità che ci si può permettere, non
      certo assemblarsi uno schermo virtuale grande ma
      di pessima qualità prendendo piccoli monitor. E
      se non si è ricchi buttar soldi su una soluzione
      del genere ha ancora meno senso, anche in termini
      di consumo elettrico sulla bolletta.

      AMD è alla frutta. Questa stupidaggine non
      venderà un cavolo malgrado il marketing, solo
      qualche fanatico e qualche azienda per delle
      presentazioni potrebbe comprarla (ove non vi sia
      un tecnico preparato che immediatamente dovrebbe
      consigliare un proiettore professionale di fascia
      alta in
      azienda).Quoto, quoto, quoto, in azienda abbiamo diversi proiettori portatili e fissi, per tutti i gusti,la storia dei monitor multipli può servire solo in alcuni ambiti dove si devono visualizzare più cose in contemporanea su diversi desktop, ma per presentazioni, giochi o cmq video le linee di giunzione dei monitor sono un pugno nell'occhio, senza contare che è quasi impossibile regolarli tutti e 6 con lo stesso contrasto e luminosità, saranno più visibili in locali illuminati ma anche più soggetti a riflessi delle finestre/luci, quindi è sempre meglio optare per un proiettore o televisore al plasma di grosse dimensioni, un 52" normalmente è l'ideale per sale riunioni medie.
  • LuigiT scrive:
    2002 - Matrox G400 - 60 euro - 2 monitor
    Ed esisteva anche la 4 monitor anche se molto più costosa.=
    anche in questo campo non sanno più che fare se non riciclare indorando un pò la confezione
  • cornice a parte scrive:
    cornice a parte
    "AMD afferma che una configurazione costituita da 6 schermi Full HD da 30 pollici fornisce una risoluzione complessiva di 7680 x 3200 pixel, ed è in grado di ricreare una scena così dettagliata da risultare - cornici a parte - quasi indistinguibile da una reale."Già, cornice a parte.Un dettaglio veramente da poco. :D
  • Liosandro scrive:
    Ma non si poteva già fare?
    Non era già possibile farlo aggiungendo più schede, scusate?Se ne parla come di una novità incredibile, ma l'unica novità non è la quantità di monitor, è il fatto che si possa fare cone una scheda (che poi si dovrà vedere quanti slot occupa e quanto costa...
  • guast scrive:
    Meglio tenerla nascosta
    Avete presente che cosa significherebbeuna cosa del genere in ufficio.Ti mettono un monitor per programmare, uno che sta sempre in tail su qualche file di log, uno su una di quelle belle console con lucine verdi rosse e allarmi vari. Ci mancherebbe solo quello che controlla la macchinetta del caffè
  • anonimo scrive:
    Nuovi utilizzi
    Questo tipo di schede possono essere utilizzate anche per collegare diversi mini monitor anche touch screen
  • antonio serino scrive:
    elinazione bordi schermi
    per chi interessato su web spiegano come smontare i monitor e ridurre il bordo dei monitor
  • Sgabbio scrive:
    Nessuna foto della scheda ?
    Su internet, alcuni siti hanno mostrato HW usato da AMD per questa operazione. E' impressionate vedere quanti cavi ci vogliano !
  • Gelax scrive:
    Assurdo...
    Certo che una strisciolina adesiva nera in orizzontale tra i monitor la potevano anche mettere....Quella riga argento in mezzo è fastidiosissima.. -_-"
  • Inutilita scrive:
    Molto comodo.....
    se proprio vuoi un bello schermo... non comprarlo, fatti il VIDEOPROIETTORE!!costa meno consuma meno ingombra meno
    • Sgabbio scrive:
      Re: Molto comodo.....
      - Scritto da: Inutilita
      se proprio vuoi un bello schermo... non
      comprarlo, fatti il

      VIDEOPROIETTORE!!

      costa meno consuma meno ingombra menoMa qualitativamente ?
    • harvey scrive:
      Re: Molto comodo.....
      - Scritto da: Inutilita
      costa meno consuma meno ingombra menoSu questo avrei grossissimi dubbi...A meno che negli ultimi anni ci sia stata una rivoluzione, il videoproiettore ha un costo all'ora decisamente alto, visto che la lampada va sostituita molto più sesso di qualsiasi schermo lcd!In più a meno di prendere qualcosa di eccezionalmente buona, la risoluzione di sicuro non arriva a 7680 x 3200 pixe
      • Bho scrive:
        Re: Molto comodo.....
        Di certo c'e' da capirne l'utilizzo.Se ci guardi un film meglio il videoproiettore.Per giocare anche.Se vuoi navigare non va male.Se vuoi cogliere le risoluzioni estreme ti devi avvicinare molto,non so dirti se sia un pregio.Sicuramente il malditesta ne sara contento
      • chojin999a scrive:
        Re: Molto comodo.....
        - Scritto da: harvey
        - Scritto da: Inutilita

        costa meno consuma meno ingombra meno


        Su questo avrei grossissimi dubbi...

        A meno che negli ultimi anni ci sia stata una
        rivoluzione, il videoproiettore ha un costo
        all'ora decisamente alto, visto che la lampada va
        sostituita molto più sesso di qualsiasi schermo
        lcd!

        In più a meno di prendere qualcosa di
        eccezionalmente buona, la risoluzione di sicuro
        non arriva a 7680 x 3200
        pixeUna lampada 200Watt o 300Watt di un proiettore 1080p decente dura almeno 3000euro .. che fanno oltre 150giorni acceso 24/7 senza mai spegnerlo... ed ogni lampada costa sui 250-500euro a seconda del modello. Non sono certo costi proibitivi. Per un'azienda sono irrisori, per un privato che non lo terrà acceso 24/7 comunque di media significa comprare una lampada ogni 1 anno o 1 anno e mezzo.La risoluzione della soluzione multimonitor dichiarata è ridicola, o nessuno fa caso davvero ai bordi dei singoli monitor in mezzo allo schermo virtuale che di fatto massacrano la risoluzione ottica reale ottenibile?
        • chojin999a scrive:
          Re: Molto comodo.....
          - Scritto da: chojin999a
          Una lampada 200Watt o 300Watt di un proiettore
          1080p decente dura almeno 3000euro .. che fanno^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ops.. 3000ore ovviamente volevo scrivere.
        • Lord Kap scrive:
          Re: Molto comodo.....
          - Scritto da: chojin999a
          Una lampada 200Watt o 300Watt di un proiettore
          1080p decente dura almeno 3000ore .. che fanno
          oltre 150giorni acceso 24/7 senza mai
          spegnerlo... ed ogni lampada costa sui
          250-500euro a seconda del modello.
          Non sono certo costi proibitivi.Il fatto è che, qualche anno fa (sto parlando del 2001), un proiettore 1024x768 costava tantissimo (tipo oltre i 10 milioni di lire).Ora non so quanto siano migliorati come prezzo...-- Saluti, Kap
          • Enjoy with Us scrive:
            Re: Molto comodo.....
            - Scritto da: Lord Kap
            - Scritto da: chojin999a

            Una lampada 200Watt o 300Watt di un proiettore

            1080p decente dura almeno 3000ore .. che fanno

            oltre 150giorni acceso 24/7 senza mai

            spegnerlo... ed ogni lampada costa sui

            250-500euro a seconda del modello.

            Non sono certo costi proibitivi.

            Il fatto è che, qualche anno fa (sto parlando del
            2001), un proiettore 1024x768 costava tantissimo
            (tipo oltre i 10 milioni di
            lire).
            Ora non so quanto siano migliorati come prezzo...

            --
            Saluti, KapGuarda che Io nel 2005 ho preso un ACER 1024x768 nativi DLP da 2400 ansi/lumen per 1250 euro, oggi un proiettore di pari caratteristiche lo trovi ben sotto i mille euro e per cifre sotto i 1500 prendi un full HD!
          • Lord Kap scrive:
            Re: Molto comodo.....
            - Scritto da: Enjoy with Us
            - Scritto da: Lord Kap

            Il fatto è che, qualche anno fa (sto parlando

            del 2001), un proiettore 1024x768 costava

            tantissimo (tipo oltre i 10 milioni di lire).

            Ora non so quanto siano migliorati come prezzo...
            Guarda che Io nel 2005 ho preso un ACER 1024x768
            nativi DLP da 2400 ansi/lumen per 1250 euro, oggi
            un proiettore di pari caratteristiche lo trovi
            ben sotto i mille euro e per cifre sotto i 1500
            prendi un full HD! Qui sotto i 1500 ci trovi ben poco full hd, comunque sicuramente si sono abbassati di prezzo.-- Saluti, Kap
    • Liosandro scrive:
      Re: Molto comodo.....
      - Scritto da: Inutilita
      se proprio vuoi un bello schermo... non
      comprarlo, fatti il

      VIDEOPROIETTORE!!

      costa meno consuma meno ingombra menoMa neanche per idea.Al di là del fatto che un videoproiettore 4k costa centinaia di migliaia di euro, la resa corretta ce l'ha solo in condizioni di buio assoluto, come al cinema.Riflettete sul fatto che il nero più profondo di un proiettore è quello di minima illuminazione dello schermo.Avete una parete bianca vicina? Ecco, guardatela. Vi pare nera? I proiettori non PROIETTANO il nero.
      • Enjoy with Us scrive:
        Re: Molto comodo.....
        - Scritto da: Liosandro
        - Scritto da: Inutilita

        se proprio vuoi un bello schermo... non

        comprarlo, fatti il



        VIDEOPROIETTORE!!



        costa meno consuma meno ingombra meno


        Ma neanche per idea.

        Al di là del fatto che un videoproiettore 4k
        costa centinaia di migliaia di euro, la resa
        corretta ce l'ha solo in condizioni di buio
        assoluto, come al
        cinema.Perchè parli di risoluzioni tanto elevate? Non vorrai paragonare la soluzione a pannelli distinti a quella con unico schermo vero? Le cornici se vedi un fil o videogiochi inficiano la resa molto più di una risoluzione inferiore!Oggi trovi degli ottimi videoproiettori full hd già sotto i 1500 euro... non mi sembrano cifre elevatissime!Quanto alla resa del nero e dei colori Io ho un Acer DLP da 2400 ansi lumen 1024*768 nativi, preso nel 2005 e pagato 1250 euro, ti posso assicurare che si vede benissimo in penombra e ha un contrasto di 2000:1 (oggi arrivano a 20.000:1) i film li vedi come al cinema!
        Riflettete sul fatto che il nero più profondo di
        un proiettore è quello di minima illuminazione
        dello
        schermo.
        Avete una parete bianca vicina? Ecco, guardatela.
        Vi pare nera? I proiettori non PROIETTANO il
        nero.Nessuno usa una parete bianca, esistono appositi schermi riflettenti direzionali, se un punto dello schermo non viene illuminato non può riflettere la luce e le luci parassite provenienti da fonti non perpendicolari allo schermo vengono minimizzate... fai la prova prima di parlare.
        • Liosandro scrive:
          Re: Molto comodo.....
          - Scritto da: Enjoy with Us
          - Scritto da: Liosandro

          - Scritto da: Inutilita


          se proprio vuoi un bello schermo... non


          comprarlo, fatti il





          VIDEOPROIETTORE!!





          costa meno consuma meno ingombra meno





          Ma neanche per idea.



          Al di là del fatto che un videoproiettore 4k

          costa centinaia di migliaia di euro, la resa

          corretta ce l'ha solo in condizioni di buio

          assoluto, come al

          cinema.

          Perchè parli di risoluzioni tanto elevate? Non
          vorrai paragonare la soluzione a pannelli
          distinti a quella con unico schermo vero? Le
          cornici se vedi un fil o videogiochi inficiano la
          resa molto più di una risoluzione
          inferiore!
          Oggi trovi degli ottimi videoproiettori full hd
          già sotto i 1500 euro... non mi sembrano cifre
          elevatissime!
          Quanto alla resa del nero e dei colori Io ho un
          Acer DLP da 2400 ansi lumen 1024*768 nativi,
          preso nel 2005 e pagato 1250 euro, ti posso
          assicurare che si vede benissimo in penombra e ha
          un contrasto di 2000:1 (oggi arrivano a 20.000:1)
          i film li vedi come al
          cinema!



          Riflettete sul fatto che il nero più profondo di

          un proiettore è quello di minima illuminazione

          dello

          schermo.

          Avete una parete bianca vicina? Ecco,
          guardatela.

          Vi pare nera? I proiettori non PROIETTANO il

          nero.


          Nessuno usa una parete bianca, esistono appositi
          schermi riflettenti direzionali, se un punto
          dello schermo non viene illuminato non può
          riflettere la luce e le luci parassite
          provenienti da fonti non perpendicolari allo
          schermo vengono minimizzate... fai la prova prima
          di
          parlare.Amico mio, mi occupo di eventi e cinema. "Qualcosa" ne so.C'è un motivo per cui, anche in presenza di schermi costosissimi, la sala è completamente al buio.Disponibile a qualsiasi prova. E... nell'articolo si parla di risoluzioni enormi. Ovviamente non si parla di vedere un film (non sono cieco, le cornici le tengo in considerazione), ma per qualsiasi applicazione siano necessarie tali definizioni la soluzione NON è un proiettore.
    • Enjoy with Us scrive:
      Re: Molto comodo.....
      - Scritto da: Inutilita
      se proprio vuoi un bello schermo... non
      comprarlo, fatti il

      VIDEOPROIETTORE!!

      costa meno consuma meno ingombra menoInfatti è quello che ho fatto già dal 2005... non avrà quella risoluzione, ma neanche le cornici da 2 cm attorno ad ogni monitor!
  • harvey scrive:
    Multisessione
    Onestamente la cosa più interessante sarebbe la possibilità di utilizzare contemporaneamente sullo stesso pc più sessioni di windows. Vorrebbe dire il poter ridurre notevolmente il costo delle licenze, visto che il PC e' uno solo!!!Speriamo che non ci siano troppe barriere sulle licenze
    • Sgabbio scrive:
      Re: Multisessione
      - Scritto da: harvey
      Onestamente la cosa più interessante sarebbe la
      possibilità di utilizzare contemporaneamente
      sullo stesso pc più sessioni di windows. Vorrebbe
      dire il poter ridurre notevolmente il costo delle
      licenze, visto che il PC e' uno
      solo!!!

      Speriamo che non ci siano troppe barriere sulle
      licenzeParlando di microsoft, vedrai che orrore tireranno fuori.
      • harvey scrive:
        Re: Multisessione
        - Scritto da: Sgabbio
        Parlando di microsoft, vedrai che orrore
        tireranno
        fuori.Non è detto che sia di windows, in fin dei conti loro hanno già le licenze serverMagari qualche altra ditta....Già c'e' un hardware che fa una cosa simile, ma a parte il principale le altre stazioni non hanno praticamente scheda video, quindi immagine che performance :(
    • Nome e cognome scrive:
      Re: Multisessione
      - Scritto da: harvey
      Onestamente la cosa più interessante sarebbe la
      possibilità di utilizzare contemporaneamente
      sullo stesso pc più sessioni di windowsGià si puo' fare da tempo con linux:due tastiere (una PS2 e una USB) e due mouse (una PS2 e una USB)Scheda video, con due uscite DVI :D Due monitor.Configurare il file xorg.conf ...e... fatto! (geek)
  • Alvaro Vitali scrive:
    Sempre meno schede nVidia?
    Proprio in questi giorni, dopo appena 3 anni di normalissimo utilizzo, mi si è carbonizzata la scheda nVidia GeForce 7600GS della ASUS. Ho fatto un giro in Rete per trovare una nuova scheda o direttamente un nuovo PC e ho notato che sempre meno produttori vendono computer dotati di schede grafiche nVidia; nella gran parte dei casi si opta per le ATI Radeon.Esiste una spiegazione a tutto ciò?Io ho l'impressione che nVidia stia pompando troppo le proprie GPU tanto che spesso, i requisiti hardware sembrano veramente eccessivi; temperature di funzionamento assurde e alimentatori consigliati che ormai si stanno avvicinando al kW di potenza minima richiesta!Tutto ciò sicuramente determina una probabilità di guasti piuttosto elevata.Anche se sono fermamente intenzionato a comprare una nuova scheda nVidia, non posso non notare i problemi che stanno avendo molti miei amici e conoscenti con quelle schede video; basta andare poi sui forum di assistenza tecnica nVidia per trovarsi davanti ad una situazione piuttosto preoccupante.Ovviamente, non sto facendo propaganda alle AMD/ATI visto che non le ho mai usate e so che sono (o forse erano) nettamente inferiori alle nVidia.
    • Nome e cognome scrive:
      Re: Sempre meno schede nVidia?
      Può essere, in effetti la mia nVidia passiva scalda talmente tanto che quest'estate ho dovuto spegnere il pc nei momenti più caldi (case sopra i 50 gradi e core sopra i 75).Però nVidia è l'unica con cui non ho mai avuto problemi come utente Linux. Per Windows invece mi sono trovato meglio con ATI fin dalle vetuste 8200 di 7-8 anni fa. Prima ancora ero un fan Matrox per via della qualità ma non di certo per prestazioni.
      • Name and Cogname scrive:
        Re: Sempre meno schede nVidia?
        - Scritto da: Nome e cognome
        Può essere, in effetti la mia nVidia passiva
        scalda talmente tanto che quest'estate ho dovuto
        spegnere il pc nei momenti più caldi (case sopra
        i 50 gradi e core sopra i
        75).
        Dopo aver visto la mia 7600GS passiva, sempre Asus, a 95° in full ho optato per una ventola da 80mm per case fissata a 2-3 mm dal dissi della scheda... 50 in idle ora con case poco areato, in full non arriva a 60 :D
    • James Kirk scrive:
      Re: Sempre meno schede nVidia?
      Nvidia mantiene sempre la leadership delle schede video discrete; tuttavia recentemente ha perso qualche punto nel settore desktop e sta iniziando a perdere molto nel settore notebook.Le ragioni sono varie: innanzitutto Nvidia non sta di fatto innovando i chip di fascia media e bassa da quasi 2 anni, mentre ATI lo ha fatto e la seconda (legata al mondo notebbok) è la moria di chip che ha affetto da un anno molti notebook, per cui i costruttori hanno 'punito' nvidia.Un altra ragione è che AMD offre sconto agli OEM che adottano CPU, GPU e chipset AMD.
    • Vault Dweller scrive:
      Re: Sempre meno schede nVidia?
      - Scritto da: Alvaro Vitali
      Proprio in questi giorni, dopo appena 3 anni di
      normalissimo utilizzo, mi si è carbonizzata la
      scheda nVidia GeForce 7600GS della ASUS. Ho fatto
      un giro in Rete per trovare una nuova scheda o
      direttamente un nuovo PC e ho notato che sempre
      meno produttori vendono computer dotati di schede
      grafiche nVidia; nella gran parte dei casi si
      opta per le ATI
      Radeon.

      Esiste una spiegazione a tutto ciò?Si. Essenzialmente, pur essendo più peerformanti le nVidia hanno due problemi fondamentali ...
      Io ho l'impressione che nVidia stia pompando
      troppo le proprie GPU tanto che spesso, i
      requisiti hardware sembrano veramente eccessivi;
      temperature di funzionamento assurde e
      alimentatori consigliati che ormai si stanno
      avvicinando al kW di potenza minima
      richiesta!
      Tutto ciò sicuramente determina una probabilità
      di guasti piuttosto
      elevata.... il primo dei quali è un TPD (Thermal Power Design) mal realizzato, che porta a richiedere maggiore potenza elettrica all'alimentazione e contemporaneamente ne dissipa più della metà sotto forma di calore.Ti basti pensare che il mio pc da gioco con su 2 RadeonHD 4890 in crossfire scalda più o meno come il mio portatile con la sua bella scheda nvidia datata.
      Anche se sono fermamente intenzionato a comprare
      una nuova scheda nVidia, non posso non notare i
      problemi che stanno avendo molti miei amici e
      conoscenti con quelle schede video; basta andare
      poi sui forum di assistenza tecnica nVidia per
      trovarsi davanti ad una situazione piuttosto
      preoccupante.L'altro problema è l'affidabilità, in quanto qualche anno fa il congresso americano ha deciso di mettere al bando un sistema produttivo che utilizzava metalli dannosi e altamente inquinanti; indovina chi ha dovuto cambiare proXXXXX produttivo in fretta e furia ... esatto nVidia, e ciò è risultato in una serie di chip mal funzionanti e in alcuni casi, fallati al punto di far saltare la gpu stessa.
      Ovviamente, non sto facendo propaganda alle
      AMD/ATI visto che non le ho mai usate e so che
      sono (o forse erano) nettamente inferiori alle
      nVidia.Personalmente fino all'acquisto del mio pc da gioco non avevo mai usato ati, tuttavia i fattori di cui sopra, oltre ai fattori economici, mi hanno fatto decidere per il passaggio.In effetti l'unico neo delle ati che fin'ora ho riscontrato è lo scarso supporto/compatibilità con i sistemi operativi diversi da windows.
      • Mauro scrive:
        Re: Sempre meno schede nVidia?

        Ti basti pensare che il mio pc da gioco con su 2
        RadeonHD 4890 in crossfire scalda più o meno come
        il mio portatile con la sua bella scheda nvidia
        datata.
        Bè qua mi scadi un po' dopo un bel discorso... scusa ma pure sul portatile che ho a casa con una ati della serie X dedicata, la temperatura percepibile all'esterno del case è assurda, altissima, ma questo è dovuto al fatto che il portatile non è fatto per schede di un certo tipo, perchè il sistema di raffreddamento ha dei limiti fisici invalicabili per cui per quanto performante sia, la temperatura finale sarà comunque altissima.Se poi mi dici anche che la tua nvidia è vecchia e la ati no, allora mi viene da pensare che la ati disponga di un chip realizzato con una tecnologia produttiva più recente, magari a 45 o 60nm contro i 90 probabili del portatile. Oltretutto, essendo più recente, la ati disporrà di tecnologie per abbassare il clock durante l'uso idle e farla scaldare di meno.Io ho una 9800gtx della asus, scalda un po' ma il mio è un caso a parte perchè purtroppo ho il case incassato in un mobile con poco spazio attorno quindi non faccio testo. Detto ciò, vero che le ati scaldano meno, ma in assoluto le performance non sono identiche alle nvidia, generalmente a parità di prodotto nvidia è un pelino migliore. Certo, che ti frega di 1fps in + o in meno? Niente, vero, però nvidia supporta una cosuccia chiamata physx, che personalmente ritengo estremamente importante, da un livello di realismo ai giochi decisamente alto ed è una cosa da considerare bene nella scelta della scheda video.
    • ba1782 scrive:
      Re: Sempre meno schede nVidia?
      Ok leggendo le opinioni sopra ho capito che è normale quello che succede alla mia povera 7600GS della Point of View... Anche se sul fisso ci tengo solo windows 7 senza nessun(nessun'altra?) applicazione che richieda alcuno sforzo grafico...
    • dawlin scrive:
      Re: Sempre meno schede nVidia?
      Prenditi una Gainward, sono fatta molto bene. Ho una 260, anche giocando la temperatura resta ad livelli accettabili (fin ora non ha ancora superato i 50°), ed è pure silenziosa.Per i tuoi amici che hanno problemi di temperatura, può essere una soluzione quella di staccare la ventola, togliere la vecchia pastella, metterne di nuova e riattaccare la ventola, spesso il problema della temperatura risiede in una cattiva qualità della pasta.
      • dawlin scrive:
        Re: Sempre meno schede nVidia?
        nr: Vault Dweller ba1782Con le schede basate su gpu Nvidia, cambia molto la qualità costruttiva, tra una o l'alta casa prodrutticePer esempio, la mia scheda 260 và che è una cannonata, un mio amico ha sempre una 260 ma di un altra marca e sembra di avere un elicottero nel computer. Ho avuto una scheda 8600 che stava sui 50 gradi, che sono più della mia attuale scheda, ma meno della 7200 che ho in taverna, 80° per non far nulla. Per un periodo mi è passata per le mani una 9800 gt ad raffreddamento passivo, e anche quella aveva temperature accettabilie (45°): Stessa scheda ma fatta da un altro produttore e con ventola, tra l'alto anche un pò rumorosa, ci potevi friggere le uova.
      • ... scrive:
        Re: Sempre meno schede nVidia?
        si è vero, le gainward scaldano pochissimo, io ho una gtx 295 e quando la uso seriamente la temperatura sale di pochissimi gradi, è anche vero che sta dentro un thermaltake, però ad esempio in ufficio su un altro modello di nvidia (9800gt) la temperatura schizzava alle stelle appena partiva una qualsiasi applicazione per la gpu
    • ... scrive:
      Re: Sempre meno schede nVidia?
      è molto più semplice, la nvidia si sta spostando verso un mercato più orientato ai professionisti, infatti stanno aumentando in modo pazzesco gli investimenti su cuda e sulle quadro, ovviamente tutto ciò senza abbandonare il mercato dei giochi che gli ha dato da mangiare per 10 annipoi non scordarti che le ati sono più economiche, è normale finiscano nei pc assemblati, ma non c'è paragone con le nvidia...attualmente ho una gtx 295 che uso per cuda, è tutto un altro pianeta, soprattutto posso usarla su linux, freebsd, osx, windows, anche se purtroppo per ora cuda su freebsd non c'è (ma non è un problema, c'è sempre il layer di compatibilità con linux se hanno messo il supporto nei driver)
  • Pointer scrive:
    Bello ma....
    ... per quanto migliorino la tecnologia, 6 o 24 monitor affiancati costeranno e consumeranno ovviamente sempre più di uno, per non parlare dello spazio necessario, che non tutti hanno. Anche se mostrano case con ragazzi felici, dubito che sarà una cosa che avranno tutti.
    • Sgabbio scrive:
      Re: Bello ma....
      Già, però l'idea in se può essere utile, comunque già le schede video riescono a gestire 2 schermi contemporaneamente, chi sa :D
    • James Kirk scrive:
      Re: Bello ma....
      I monitor multipli, specie con la diffusione dei widescreen, hanno perso interesse a livello consumer, salvo piccolissime nicchie di gaming estremo (tipo i simulatori di volo).Credo che con questa soluzione ATI punti ad entrare nella nicchietta che Matrox si è ricavata in certi settori professionali (es, le sale borsa la pubblicità) proprio con la gestione multimonitor.
    • JackBahuer scrive:
      Re: Bello ma....
      troppo costoso. già avere un HD /full Hd risulta essere costoso (al meno per mè)un lcd mi stà più che bene, figurarsi 6 /24...non esageriamo daiLa Samsung e AMD si rivolge alla fascia alta vale a dire aziende e alla gente con ,yen ,sterline ,$ ma ce ne vorranno tanti.P.s per full hd intendo tv della Bravia o il Samsung serie 6/7 da 1.700,00non quelli da 450-500-----------------------------------------------------------Modificato dall' autore il 12 settembre 2009 10.28-----------------------------------------------------------
      • harvey scrive:
        Re: Bello ma....
        Effettivamente vuoi mettere in sala farsi una parete 4x3m di monitor PC?Certamente una cosa da tutti :D
        • JackBahuer scrive:
          Re: Bello ma....
          Assemblare un monitor gigante da mettere in salotto diventerà presto qualcosa alla portata di tutti, o quasi. A prometterlo è AMD, che ha mostrato una tecnologia chiamata ATI Eyefinity che consentirà di collegare fino a 6 display ad una singola scheda grafica e fino a 24 display ad un singolo PC.non so'voi ma non conosco nessuno che abbia 6 monitorIn una "normalissima" abitazione ,ceto medio( se esiste ancora ;) ) ne troviamo al massimo 4 (e per la maggiore sono ancora col tubocatodico)+1 lcd o hd .I colossi dell'Hight tech lo sanno? sopratutto in questi anni dove la recessione e ai minimi storici.per adesso apprendo volentieri la notizia
      • D Z scrive:
        Re: Bello ma....
        Io il bravia serie 6 da 40" l'ho pagato 850 :P
Chiudi i commenti