Cassandra Crossing/ Pirati al cinema

di Marco Calamari - Non si tratta di una recensione de il Forziere Fantasma ma di considerazioni molto più generali del rapporto tra cinema, passione del cinema, cultura del cinema e spot antipirateria prima della proiezione

Roma – Vedere un film al cinema è una modalità di accesso alla cultura ed all’intrattenimento da sempre popolare, particolarmente per chi si ricorda di quando non esistevano alternative digitali e neppure televisive.
Questo antico piacere ha beneficiato di grandi miglioramenti tecnologici che lo hanno ulteriormente esaltato ; al fascino della sala buia e del grande schermo, che fanno sentire in mezzo all’azione, si aggiungono effetti speciali, audio tecnologico e pellicole ad alta risoluzione.

Certo, anche al cinema esistevano fattori negativi; al non basso prezzo del biglietto (per le tasche di uno studente) si aggiungeva la necessità di sottoporsi al rito preliminare delle diapositive, della pubblicità, del cinegiornale e se il film era un cartone animato, anche del documentario. Ma una nuova ed almeno per me peggiore causa di disturbo, anzi di vero fastidio, si è aggiunta in questi ultimi tempi.

Vi sarete certo accorti che finito il rito preliminare, invece del film parte uno spot (“Non faresti questo, non faresti quello….”) che sembra girato da un operatore svolazzante su oscuri bassifondi, sonorizzato da un rumorista sadico, titolato da una persona affetta da delirium tremens e sceneggiato da quello che qualcuno potrebbe ritenere un esattore della mafia.

C’è un dubbio che mi assilla; qual è lo scopo per cui questo spot viene proiettato al cinema? Perché proprio li e non, ad esempio, in televisione?

Se la logica spicciola funzionasse, il cinema è l’ultimo posto dove proiettarlo. Il cinematografo è un tempio in cui ci si reca per onorare l’attuale modello storico della proprietà intellettuale, almeno temporaneamente. I frequentatori di questo tempio obbediscono religiosamente a tutti i comandamenti, inclusa la carità di un obolo in contanti. Perché punirli? Perché sottoporli a questo messaggio, sgradevole e, dato il contesto, particolarmente inutile ed inadatto? Sono spettatori paganti, i cui soldi finiscono direttamente e nelle percentuali stabilite dalle leggi nelle casse delle major del cinema e degli enti che si propongono di proteggerle dall’assalto della “pirateria”.

Viene spontaneo indirizzare un messaggio, anzi una preghiera, a chi con mano illuminata e severa tali enti dirige. Lo spot somministratelo negli internet café e nei negozi di pc, posti sordidi notoriamente frequentati da filibustieri di tutte le specie. Martellate la gente per televisione. Al limite proiettatelo a scopi (dis)educativi nelle scuole per formare le giovani menti.

Non è un’idea originale, all’estero tentano di fare così, ed hanno creato addirittura i fumetti di Capitan Copyright su questo tema. Quanto cio’ funzioni è un’altra questione, che non ci interessa in questa sede. E per fortuna c’è anche un personaggio rivale . In Italia il peggio che vi potrebbe capitare è che una novella Giovanna , mamma piuttosto che nonna di un futuro Corsaro Nero, protestasse col preside e scrivesse al ministro.

Riduco tutto ad una unica domanda: “Perché state importunando i VOSTRI CLIENTI con questo spot?”
Io riesco a vedere solo una spiegazione razionale che può giustificare una simile ed apparentemente suicida strategia: il sapere che la cosiddetta pirateria è un comportamento ormai sociale, adottato praticamente da tutti, incluso coloro che vanno al cinema. Come il bere ai tempi del proibizionismo.

Gli spettatori, in questo caso, sarebbero solo un bersaglio molto più facile di altri da raggiungere e tentare di dissuadere con ogni mezzo. Sono seduti a portata di mano e se si alzassero e se ne andassero perderebbero i soldi del biglietto. Gli tocca restare e subire. Se questa fosse la spiegazione, vorrei appunto comunicarvi che state facendomi passare la voglia di andare al cinema. Nel caso degli altri ovviamente non so, provate ad investire qualche soldo non in spot ma in un sondaggio.

Ma se così non fosse, se questa spiegazione fosse errata, sarei lieto di avere quella giusta da chi commissiona queste campagne pubblicitarie. La cosa potrebbe interessare a molte persone.

Marco Calamari

Tutte le release di Cassandra Crossing sono disponibili a questo indirizzo

La tua email sarà utilizzata per comunicarti se qualcuno risponde al tuo commento e non sarà pubblicato. Dichiari di avere preso visione e di accettare quanto previsto dalla informativa privacy

  • Anonimo scrive:
    Perché non su X2 ?
    Forse per gli utenti normali sarebbe stato più interessante avere una CPU ed una GPU in un solo chip. Anche perché qualcuno si è reso conto che il multicore non gli serve...Marco Ravich
    • Anonimo scrive:
      Re: Perché non su X2 ?
      - Scritto da:
      Forse per gli utenti normali sarebbe stato più
      interessante avere una CPU ed una GPU in un solo
      chip. Anche perché qualcuno si è reso conto che
      il multicore non gli
      serve...

      Marco RavichVeramente il dual core almeno un pochino lo sfrutti con la maggior parte dei SO, oltre sono d'accordo anch'io, diventa vantaggioso solo sui server o su applicazione scritte e compilate appositamente... un tri-core, 2 CPU + 1 GPU non lo vedo impossibile, già la XBox360 usa un tri-core con 3 CPU, ma se il quadri-core fosse più facile da fare per questioni puramente geometriche, potrebbero fare 2 CPU + 2 GPU di fascia media in CrossFire che fornirebbero una potenza di calcolo paragonabile a una GPU di fascia alta, oppure potrebbero essere usate una per l'accelerazione grafica e l'altra per quella fisica.
      • Anonimo scrive:
        Re: Perché non su X2 ?
        - Scritto da:

        - Scritto da:

        Forse per gli utenti normali sarebbe stato più

        interessante avere una CPU ed una GPU in un solo

        chip. Anche perché qualcuno si è reso conto che

        il multicore non gli

        serve...



        Marco Ravich

        Veramente il dual core almeno un pochino lo
        sfrutti con la maggior parte dei SO, oltre sono
        d'accordo anch'io, diventa vantaggioso solo sui
        server o su applicazione scritte e compilate
        appositamente... un tri-core, 2 CPU + 1 GPU non
        lo vedo impossibile, già la XBox360 usa un
        tri-core con 3 CPU, ma se il quadri-core fosse
        più facile da fare per questioni puramente
        geometriche, potrebbero fare 2 CPU + 2 GPU di
        fascia media in CrossFire che fornirebbero una
        potenza di calcolo paragonabile a una GPU di
        fascia alta, oppure potrebbero essere usate una
        per l'accelerazione grafica e l'altra per quella
        fisica.Intel sta lavorando a CPU da 32 e 128 core per i prossimi 4-8 anni...
        • painlord2k scrive:
          Re: Perché non su X2 ?
          Se arrivano a quel numero di core, allora diventa interessante.Perché c'è spazio per mettere dentro core specializzati per :Se il processore ha 8 core uno puo scegliere tra 4 CPU e una Unità per tipoSe ne ha 16 si può tranquillamente raddoppiare tutto:1) 2 x Grafica 3D2) 2 x Fisica3) 2 x Intelligenza Artificiale4) 2 x Criptografia5) 8 CPUIn più, se un processore viene male, si disabilità il core fallato e lo si vende come CPU di livello inferiore.Sarà divertente vedere come evolverà il mercato.
  • Enjoy with Us scrive:
    Idea interessante
    Forse non avete compreso bene, qui si tratta di poter utilizzare uno o più core a seconda delle necessità o per compiti grafici o per potenza di calcolo, ottimizzando di continuo il carico di lavoro fra parte grafica e parte "CPU classica".Se il sistema è ben sviluppato avremo pc in grado di utlizzare molto meglio le loro potenzialità, infatti tutti sappiamo che esistono dei picchi di potenza di elaborazione richiesta al PC accompagnati da periodi di scarsa richiesta di attività della CPU, che in molti casi non coincidono con l'attività richiesta ala scheda grafica.Sono convinto che per molti pc, che non richiedano prestazioni video "estreme" possa essere una buona soluzione per contenere i costi, mantenendo buone prestazioni
  • Anonimo scrive:
    Driver ATI accettabili ?!
    Che sia la volta buona per avere dei driver di qualità accettabile sia sotto win che sotto linux ?
    • Anonimo scrive:
      Re: Driver ATI accettabili ?!
      Beh sono d'accordo con te nel dire che i driver linux di Ati fanno abbastanza pena ma sotto windows non si puo' dire che siano scadenti anzi sono migliori sotto molti punti di vista rispetto ai concorrenti
      • Anonimo scrive:
        Re: Driver ATI accettabili ?!
        - Scritto da:
        Beh sono d'accordo con te nel dire che i driver
        linux di Ati fanno abbastanza pena ma sotto
        windows non si puo' dire che siano scadenti anzi
        sono migliori sotto molti punti di vista rispetto
        ai
        concorrentiMah sotto linux sono pietosi sotto win non è che siano molto meglio ho avuto problemi sia sul portatile che sul desktop. I driver Nvidia sono nettamente superiori.
        • Athlon64 scrive:
          Re: Driver ATI accettabili ?!

          Mah sotto linux sono pietosi sotto win non è che
          siano molto meglio ho avuto problemi sia sul
          portatile che sul desktop. I driver Nvidia sono
          nettamente
          superiori.Boh, ho sempre avuto ATI e con grande soddisfazione, recentemente sono passato a nForce4 e ho voluto abbinargli una GPU nVidia, ed è stata una delusione su entrambi i fronti... appena posso torno ad ATI...
          • Anonimo scrive:
            Re: Driver ATI accettabili ?!
            - Scritto da: Athlon64

            Mah sotto linux sono pietosi sotto win non è che

            siano molto meglio ho avuto problemi sia sul

            portatile che sul desktop. I driver Nvidia sono

            nettamente

            superiori.

            Boh, ho sempre avuto ATI e con grande
            soddisfazione, recentemente sono passato a
            nForce4 e ho voluto abbinargli una GPU nVidia, ed
            è stata una delusione su entrambi i fronti...
            appena posso torno ad
            ATI...Sezione IGP del portatile non supportata sotto linux per anni ed alla fine si son rassegnati a dare le specifiche per poter scrivere i driver open che però hanno delle limitazioni. Ati 9800 pro (all'epoca non proprio regalata), sotto win driver inutilizzabili causa BSOD con varie release, alla fine driver stabili ma con prestazioni peggiori di una NVIDIA Geforce mmx400, sotto linux ad oggi con i driver proprietari non puoi fare acquisizione video per nulla causa noto bug che manda tutto in crash (non solo X) salvo disabilitare funzioni varie che però rendono le prestazioni della scheda tali da rendere comunque l'acquisizione impossibile. Un po' meglio con il radeon open (con xorg appena uscito) che però causa dei fastidiosissimi saltelli e peggiora le prestazioni 3D. Inutile dire che con la solita mmx (anno 2000) tutto fila liscio e senza problemi. Ho dato fiducia ad ATI ma è stata una delusione su tutto il fronte. Peccato ad oggi le sezioni grafiche peggiori che abbia mai avuto :(
          • Anonimo scrive:
            Re: Driver ATI accettabili ?!
            Penso che il problema sia più della scheda madre nForce che della scheda video...
          • Athlon64 scrive:
            Re: Driver ATI accettabili ?!

            Penso che il problema sia più della scheda madre
            nForce che della scheda
            video...Beh, intanto a volte la connessione DVI impazzisce (con lo stesso monitor e 3 ATI diverse va senza problemi), e poi la qualità della riproduzione video è molto più bassa (sia come decoding MPEG che come deinterlacing)...
          • Anonimo scrive:
            Re: Driver ATI accettabili ?!
            - Scritto da: Athlon64

            Penso che il problema sia più della scheda madre

            nForce che della scheda

            video...

            Beh, intanto a volte la connessione DVI
            impazzisce (con lo stesso monitor e 3 ATI diverse
            va senza problemi), e poi la qualità della
            riproduzione video è molto più bassa (sia come
            decoding MPEG che come
            deinterlacing)...Sia in decoding che in deintelacing le NVIDIA, causa driver, funzionano meglio, se poi si parla di encoding il paragone non c'è neanche le ATI sembrano + vecchie di un 4 generazioni....Considerando che sulla carta le ATI son superiori l'unica spiegazione che ci si può dare è che i driver siano scritti con i piedi, cosa che chiunque abbia usato un programma di acquisizione sotto linux e windows non può che sottoscrivere....
          • Anonimo scrive:
            Re: Driver ATI accettabili ?!
            - Scritto da: Athlon64

            Penso che il problema sia più della scheda madre

            nForce che della scheda

            video...

            Beh, intanto a volte la connessione DVI
            impazzisce (con lo stesso monitor e 3 ATI diverse
            va senza problemi), e poi la qualità della
            riproduzione video è molto più bassa (sia come
            decoding MPEG che come
            deinterlacing)...Se paragoni una soluzione da ufficio integrata nel chipset con una scheda separata da 150-500 euro... ma che paragoni fai ? Ci credo che la scheda separata ATI ti risulta migliore.Prendi una GeForce 7600GS 512MB PCI-E, poi ne riparliamo. Il SIMD PureVideo nella GPU è perfetto nella decodifica di H.264 e flussi H.264 SDTV occupano meno del 10% della CPU con gli ultimi driver su vecchi P4 2.40C
          • Anonimo scrive:
            Re: Driver ATI accettabili ?!
            non prenderei ati nemmeno se me la regalassero dopo due schede ATI che ho avuto per me ATI e' morta.Visto che le console come PS3 e XBpx 360 montano GPU Nvidia ci sara' un perche'.Se poi vogliamo parlare dei driver ATI lì abbiamo un vero e proprio bagno di sangue, mi chiedo come non riescano a fare dei driver che non cannino le texture in ogni gioco e' veramente penosa la resa grafica di queste schede
      • Anonimo scrive:
        Re: Driver ATI accettabili ?!
        - Scritto da:
        Beh sono d'accordo con te nel dire che i driver
        linux di Ati fanno abbastanza pena ma sotto
        windows non si puo' dire che siano scadenti anzi
        sono migliori sotto molti punti di vista rispetto
        ai
        concorrentiSì, come no. Infatti tutti quelli che conosco che hanno ATI hanno problemi che con Nvidia non ci sono.
    • Anonimo scrive:
      Re: Driver ATI accettabili ?!
      - Scritto da:
      Che sia la volta buona per avere dei driver di
      qualità accettabile sia sotto win che sotto linux
      ?non ti nascondo che lo spero proprio. Tuttavia stavo vedendo che anche i driver opensource per nv stanno facendo enormi progressi. Attenderò ancora prima di prendermene una nuova :)
    • Anonimo scrive:
      Re: Driver ATI accettabili ?!
      - Scritto da:
      Che sia la volta buona per avere dei driver di
      qualità accettabile sia sotto win che sotto linux
      ?MAMMAGARI!Sarebbe pure ora che apra sti' cavolo di driver, e che migliorasse il supporto a OpenGL. Venderebbe un marea di schede in piu'.Io pure ho usato per anni ATI, ma visto che Linux fa pieta', sono stato costretto a prendere le nVidia (che e' solo un po' meglio, non tanto).Magari con la fusione qualcosa si muovera' in tal senso, perche' AMD ha una certa vocazione per' l'Open (vedi HyperTransport, e tutti gli altri standard open che ha promosso), quindi forse potrebbero finalmente curare dei driver decenti anche per Linux.
    • Anonimo scrive:
      Re: Driver ATI accettabili ?!
      - Scritto da:
      Che sia la volta buona per avere dei driver di
      qualità accettabile sia sotto win che sotto linux
      ?Credo che questo genere di pensiero sia venuto a MOOOOOOOOLLLLLLTTTTTTAAAAAA gente!
    • Anonimo scrive:
      Re: Driver ATI accettabili ?!
      che migliorino almeno su Windows e soprattutto venga alleggerito l'installer (30 MB + sono inspiegabili).Per linux possono attendere, tanto non ci sono ambizioni di gaming/multimedia spinti in quell' OS.Basta che che la riga di comando funzioni e l'user linux è più che contento.
  • Anonimo scrive:
    K8L SUBITO!
    Speriamo che con questa onerosissima acquisizione AMD abbia la forza di risollevarsi dal botta presa da Intel e lanci il prima possibile il K8L.
    • Anonimo scrive:
      Re: K8L SUBITO!
      se guardi le entrate dell'ultimo trimestre AMD, la batosta non si vede proprio ;)Con la riduzione dei prezzi, AMD vende più di prima.
      • Anonimo scrive:
        Re: K8L SUBITO!
        appena esce il core quadro voglio vedere che succede...
        • Anonimo scrive:
          Re: K8L SUBITO!
          niente, visto che quelli che sono disposti a compare un processore a 1000 dollari sono una minoranza trascurabile... i soldi si fanno nella fascia medio-bassa.
          • Anonimo scrive:
            Re: K8L SUBITO!
            - Scritto da:
            niente, visto che quelli che sono disposti a
            compare un processore a 1000 dollari sono una
            minoranza trascurabile... i soldi si fanno nella
            fascia
            medio-bassa.Per quello ci sono i Sempron, forse non te l'hanno spiegato, ma AMD ne vende qualche milione.
          • Anonimo scrive:
            Re: K8L SUBITO!
            lavoro come assemblatore in un grosso negozio di informaticail 90% di pc che sforno hanno cpu sempron.ogni tanto mi capita di assemblare qualche X2 su richiesta di qualche appassionato videogiocatore, ma per la fascia alta i clienti (colletti bianchi) richiedono quasi sempre cpu intel. Per non parlare dei laptop.... solo cpu intel.
          • Anonimo scrive:
            Re: K8L SUBITO!
            - Scritto da:
            lavoro come assemblatore in un grosso negozio di
            informatica
            il 90% di pc che sforno hanno cpu sempron.
            ogni tanto mi capita di assemblare qualche X2 su
            richiesta di qualche appassionato videogiocatore,
            ma per la fascia alta i clienti (colletti
            bianchi) richiedono quasi sempre cpu intel.


            Per non parlare dei laptop.... solo cpu intel.Sui desktop IMO gioca parecchio gli anni di uso del brand pentium, per i portatili il discorso è un po' diverso di solito il "colletto bianco" che cerca un portatile ha bisogno di una batteria che duri parecchio e purtroppo sulla fascia alta, da questo punto di vista, non c'è competizione. Io stesso che sul desktop ho solo AMD ho due portatili: un AMD 64-M ed il classico centrino comprato per portarselo in giro durante i viaggi o quando sono fuori sede....Se AMD vuole intaccare quel segmento di mercato bisogna che spinga sulla riduzione dei consumi; personalmente,comunque, ritengo abbia abbandonato quel segmento di mercato da tempo per concentrarsi sui portabili.
          • Anonimo scrive:
            Re: K8L SUBITO!
            - Scritto da:
            lavoro come assemblatore in un grosso negozio di
            informatica
            il 90% di pc che sforno hanno cpu sempron.
            ogni tanto mi capita di assemblare qualche X2 su
            richiesta di qualche appassionato videogiocatore,
            ma per la fascia alta i clienti (colletti
            bianchi) richiedono quasi sempre cpu intel.


            Per non parlare dei laptop.... solo cpu intel.Io devo essere di quelle mosche bianche che preferiscono aspettare il calo di prezzo di una CPU di fascia almeno media, per avere più cache e meno "castrazioni" e colli di bottiglia artificiali... a suo tempo avevo preso un Duron 650, ma l'attuale Athlon XP 2200+, comprato quando aveva già un prezzo basso, ma che a suo tempo, al contrario del Duron, fu al top, mi sta durando molto di più... e se non avessi avuto bisogno di una mobo con supporto anche per la vecchia SDRAM, che aveva il bus della CPU fino a 133/266 MHz, avrei aspettato un mesetto e preso un Barton, con il doppio di cache.Credo che quando sarà calato a prezzi bassi, sotto i 100-120 euro, prenderò un qualcosa attorno a un X2 5200+ o superiore, con preferenza per i modelli con più cache, e in versione Energy Efficient, a meno allora che non siano già passati ai 65nm e non ce ne sia più bisogno per avere consumi più bassi.
          • Anonimo scrive:
            Re: K8L SUBITO!
            - Scritto da:

            - Scritto da:

            lavoro come assemblatore in un grosso negozio di

            informatica

            il 90% di pc che sforno hanno cpu sempron.

            ogni tanto mi capita di assemblare qualche X2 su

            richiesta di qualche appassionato
            videogiocatore,

            ma per la fascia alta i clienti (colletti

            bianchi) richiedono quasi sempre cpu intel.





            Per non parlare dei laptop.... solo cpu intel.

            Io devo essere di quelle mosche bianche che
            preferiscono aspettare il calo di prezzo di una
            CPU di fascia almeno media, per avere più cache e
            meno "castrazioni" e colli di bottiglia
            artificiali... a suo tempo avevo preso un Duron
            650, ma l'attuale Athlon XP 2200+, comprato
            quando aveva già un prezzo basso, ma che a suo
            tempo, al contrario del Duron, fu al top, mi sta
            durando molto di più... e se non avessi avuto
            bisogno di una mobo con supporto anche per la
            vecchia SDRAM, che aveva il bus della CPU fino a
            133/266 MHz, avrei aspettato un mesetto e preso
            un Barton, con il doppio di
            cache.
            Credo che quando sarà calato a prezzi bassi,
            sotto i 100-120 euro, prenderò un qualcosa
            attorno a un X2 5200+ o superiore, con preferenza
            per i modelli con più cache, e in versione Energy
            Efficient, a meno allora che non siano già
            passati ai 65nm e non ce ne sia più bisogno per
            avere consumi più
            bassi.La migliore CPU sul mercato al momento è la Intel Core 2 Duo E6600 dual core Conroe con una motherboard con chipset 965P Gigabyte o Asus.
          • Anonimo scrive:
            Re: K8L SUBITO!
            peccatto che non tutti abbiano 350 euro da sendere solo per il processore
          • Anonimo scrive:
            Re: K8L SUBITO!
            - Scritto da:
            peccatto che non tutti abbiano 350 euro da
            sendere solo per il
            processoreDipende se uno vuole un sistema che resti fra i migliori sul mercato per 3-4 anni o che diventi obsoleto nel giro di 6 mesi. Il Core 2 Duo E6600 continuerà ad andare benissimo fino al 2009, a quel punto sarà vecchio ma comunque un ottimo sistema ancora in grado di far girare il 90% dei programmi a buona velocità.
          • Anonimo scrive:
            Re: K8L SUBITO!
            puoi spendere 350 ora ed avere una cpu che ti dura 3 anni, o spendere 150 euro ogni anno e mezzo, avendo risparmiato e ottenuto prestazioni maggiori quando ti serviranno.
          • Anonimo scrive:
            Re: K8L SUBITO!
            - Scritto da:
            puoi spendere 350 ora ed avere una cpu che ti
            dura 3 anni, o spendere 150 euro ogni anno e
            mezzo, avendo risparmiato e ottenuto prestazioni
            maggiori quando ti
            serviranno.E che risparmio ci sarebbe nel cambiare due CPU di fascia bassa ? Tanto vale comprarla da subito di fascia media.
          • Anonimo scrive:
            Re: K8L SUBITO!
            ti posso assicurare che se compri la cpu in base alla necessità ci risparmi, e anche parecchio (nell'esempio di sopra 50 euro, ma potresti rivenderti la vecchia cpu e guadagnarci ulteriormente).Ho fatto in passato l'errore di comprare cpu in previsione... è stato quasi un spreco di soldi.
          • Anonimo scrive:
            Re: K8L SUBITO!
            - Scritto da:
            lavoro come assemblatore in un grosso negozio di
            informatica
            il 90% di pc che sforno hanno cpu sempron.
            ogni tanto mi capita di assemblare qualche X2 su
            richiesta di qualche appassionato videogiocatore,
            ma per la fascia alta i clienti (colletti
            bianchi) richiedono quasi sempre cpu intel.


            Per non parlare dei laptop.... solo cpu intel.I fanatici so-tutto-io si prendono le schifezze AMD, la gente che sa cosa sta comprando si prende i Core 2 Duo Intel Conroe e Xeon 51xx Woodcrest
          • Anonimo scrive:
            Re: K8L SUBITO!
            si certo... nella fascia medio-bassa del mercato AMD non ha rivali in rapporto prezzo-prestazioni, non dire stupidate.
          • Anonimo scrive:
            Re: K8L SUBITO!
            - Scritto da:
            si certo... nella fascia medio-bassa del mercato
            AMD non ha rivali in rapporto prezzo-prestazioni,
            non dire
            stupidate.XScale che era di Intel, fascia medio bassa ottimo.Intel Centrino ULV in versioni Core 2 Duo ULV e Merom ULV.
          • Anonimo scrive:
            Re: K8L SUBITO!

            - Scritto da:

            XScale che era di Intel, fascia medio bassa
            ottimo.
            Intel Centrino ULV in versioni Core 2 Duo ULV e
            Merom
            ULV.ora che centra XScale? non stavamo parlando di cpu x86?e che centrano le versioni a basso consumo con la fascia-medio bassa, visto che anzi costano uno sproposito di più delle cpu "normali"
          • Anonimo scrive:
            Re: K8L SUBITO!
            - Scritto da:


            - Scritto da:



            XScale che era di Intel, fascia medio bassa

            ottimo.

            Intel Centrino ULV in versioni Core 2 Duo ULV e

            Merom

            ULV.

            ora che centra XScale? non stavamo parlando di
            cpu
            x86?

            e che centrano le versioni a basso consumo con la
            fascia-medio bassa, visto che anzi costano uno
            sproposito di più delle cpu
            "normali"Forse non hai idea di quanto costi Geode di AMD...
          • Anonimo scrive:
            Re: K8L SUBITO!
            insomma mi spieghi di che vuoi parlare.... stai mettendo insieme un sacco di nomi a caso che non centrano niente.XScale -
            no x86Intel Centrino ULV, Core 2 Duo ULV e Merom ULV -
            cpu dal costo molto più alto delle equivalenti no LVgeode -
            cpu per sistemi embeddedinsomma tutte cpu decicate a settori diversi del mercato, che con la fascia medio-bassa classica (processori desktop dal costo
          • Cirene scrive:
            Re: K8L SUBITO!
            - Scritto da:
            lavoro come assemblatore in un grosso negozio di
            informatica
            il 90% di pc che sforno hanno cpu sempron.
            ogni tanto mi capita di assemblare qualche X2 su
            richiesta di qualche appassionato videogiocatore,
            ma per la fascia alta i clienti (colletti
            bianchi) richiedono quasi sempre cpu intel.
            Per non parlare dei laptop.... solo cpu intel.E' vero,in primis per il fatto che il supporto Windows per AMD e' vergognoso.La situazione e' andata migliorando nel corso degli anni ma siamo ancora lontani dal dire "ok ci siamo".Sembra che i vantaggi architetturali della famiglia k8 siano nulli,anzi peggiori rispetto al P4.Ho provato AMD con Windows e svariati Unix e ho notato che dove il supporto e l'ottimizzazione per tale architettura esiste non c'e' storia.La monocultura informatica di oggi,non fa' piena luce su alcuni aspetti tutt'altro che secondari.E' bene chiarire che al di la' dei 64 bit,AMD e' un architettura compatibile ma completamente diversa e come tale il software deve essere ottimizzato.Cosa che puntualmente viene disattesa.
  • Anonimo scrive:
    L'assurdità da 300Watt+
    E se Intel seguirà AMD+ATI in questa stupidaggine della GP-CPU diremo addio alla modularità, i costi saliranno, servirà un alimentatore da 1000Watt ed in modalità idle la GP-CPU si succhierà allegramente 100-150Watt, in pieno funzionamento almeno 300Watt o oltre. Considerando che le nuove GPU ATI e Nvidia in uscita consumano da sole oltre 150Watt e necessitano di un alimentatore esterno...
    • Cirene scrive:
      Re: L'assurdità da 300Watt+
      Si infatti.Spero lo facciano solo per il mercato economico...molto economico
      • Anonimo scrive:
        Re: L'assurdità da 300Watt+
        - Scritto da: Cirene
        Si infatti.Spero lo facciano solo per il mercato
        economico...molto
        economicoSono per prodotti embed
        • Anonimo scrive:
          Re: L'assurdità da 300Watt+
          - Scritto da:

          - Scritto da: Cirene

          Si infatti.Spero lo facciano solo per il mercato

          economico...molto

          economico

          Sono per prodotti embedQuesto lo dici tu.
    • Anonimo scrive:
      Re: L'assurdità da 300Watt+
      mi spieghi che differenza fa mettere la gpu insieme alla cpu, o insieme al chipset?piuttosto essendo il processo produttivo delle cpu pià raffinato, ed essendo cpu e gpu collegate direttamente, si avrà un calo di consumi ed aumento di prestazioni.... cosa ottima soprattutto nei portatili
      • Anonimo scrive:
        Re: L'assurdità da 300Watt+
        - Scritto da:
        mi spieghi che differenza fa mettere la gpu
        insieme alla cpu, o insieme al
        chipset?
        piuttosto essendo il processo produttivo delle
        cpu pià raffinato, ed essendo cpu e gpu collegate
        direttamente, si avrà un calo di consumi ed
        aumento di prestazioni.... cosa ottima
        soprattutto nei
        portatiliMa che stai dicendo ? Vaneggi.
    • Anonimo scrive:
      Re: L'assurdità da 300Watt+
      Se vogliono giocarsela contro i centrino fanno meglio a calare le pretese
      • AlphaC scrive:
        Re: L'assurdità da 300Watt+
        - Scritto da:
        Se vogliono giocarsela contro i centrino fanno
        meglio a calare le
        pretesedai bench che ho letto amd mantiene il miglior rapporto prezzo prestazioni (come sempre) e prestazioni/consumo sul turion.
        • Anonimo scrive:
          Re: L'assurdità da 300Watt+
          - Scritto da: AlphaC

          - Scritto da:

          Se vogliono giocarsela contro i centrino fanno

          meglio a calare le

          pretese

          dai bench che ho letto amd mantiene il miglior
          rapporto prezzo prestazioni (come sempre) e
          prestazioni/consumo sul
          turion.Allora hai letto proprio male visto che la tecnologia Centrino di Intel su desktop con Core 2 Duo, su notebook con Merom, e su server con Woodcrest e Tigertown è la migliore sul mercato al momento ed AMD non ha un cavolo di niente per contrastarla.
    • Anonimo scrive:
      Gli articoli leggeteli....
      "Tali chip, secondo il colosso, forniranno un rapporto performance per watt drasticamente superiore a quello delle attuali architetture x86.".... Il risparmio energetico è uno dei vantaggi dell' "integrazione"...
      • Anonimo scrive:
        Re: Gli articoli leggeteli....
        - Scritto da:
        "Tali chip, secondo il colosso, forniranno un
        rapporto performance per watt drasticamente
        superiore a quello delle attuali architetture
        x86.".... Il risparmio energetico è uno dei
        vantaggi dell'
        "integrazione"...La fuffa del marketing ti piace tanto vedo. Peccato la realtà sia ben diversa.
        • Anonimo scrive:
          Re: Gli articoli leggeteli....
          - Scritto da:

          - Scritto da:

          "Tali chip, secondo il colosso, forniranno un

          rapporto performance per watt drasticamente

          superiore a quello delle attuali architetture

          x86.".... Il risparmio energetico è uno dei

          vantaggi dell'

          "integrazione"...

          La fuffa del marketing ti piace tanto vedo.
          Peccato la realtà sia ben diversa.Anzichè trollare seguiti un corso di base d'elettronica...
          • Anonimo scrive:
            Re: Gli articoli leggeteli....
            - Scritto da:

            - Scritto da:



            - Scritto da:


            "Tali chip, secondo il colosso, forniranno un


            rapporto performance per watt drasticamente


            superiore a quello delle attuali architetture


            x86.".... Il risparmio energetico è uno dei


            vantaggi dell'


            "integrazione"...



            La fuffa del marketing ti piace tanto vedo.

            Peccato la realtà sia ben diversa.

            Anzichè trollare seguiti un corso di base
            d'elettronica...Tu si vede proprio che l'hai seguito invece..eh! Mah!
          • Anonimo scrive:
            Re: Gli articoli leggeteli....
            - Scritto da:

            - Scritto da:



            - Scritto da:





            - Scritto da:



            "Tali chip, secondo il colosso, forniranno
            un



            rapporto performance per watt drasticamente



            superiore a quello delle attuali
            architetture



            x86.".... Il risparmio energetico è uno dei



            vantaggi dell'



            "integrazione"...





            La fuffa del marketing ti piace tanto vedo.


            Peccato la realtà sia ben diversa.



            Anzichè trollare seguiti un corso di base

            d'elettronica...

            Tu si vede proprio che l'hai seguito invece..eh!
            Mah!Avendo conseguito un dottorato in elettronica più di uno.. ma all' 1.55 ero a nanna perchè durante il giorno si studiava e non a trollare su PI... seguiti un corso d'elettronica di base.
          • Anonimo scrive:
            Re: Gli articoli leggeteli....
            - Scritto da:

            - Scritto da:



            - Scritto da:





            - Scritto da:







            - Scritto da:




            "Tali chip, secondo il colosso, forniranno

            un




            rapporto performance per watt
            drasticamente




            superiore a quello delle attuali

            architetture




            x86.".... Il risparmio energetico è uno
            dei




            vantaggi dell'




            "integrazione"...







            La fuffa del marketing ti piace tanto vedo.



            Peccato la realtà sia ben diversa.





            Anzichè trollare seguiti un corso di base


            d'elettronica...



            Tu si vede proprio che l'hai seguito invece..eh!

            Mah!

            Avendo conseguito un dottorato in elettronica più
            di uno.. ma all' 1.55 ero a nanna perchè durante
            il giorno si studiava e non a trollare su PI...
            seguiti un corso d'elettronica di
            base.Per come si conseguono i dottorati... si salvino i tuoi studenti, schiavetto dei baronetti, i prof universitari a cui lecchi le chiappe.
          • Anonimo scrive:
            Re: Gli articoli leggeteli....
            - Scritto da:

            - Scritto da:



            - Scritto da:





            - Scritto da:







            - Scritto da:









            - Scritto da:





            "Tali chip, secondo il colosso,
            forniranno


            un





            rapporto performance per watt

            drasticamente





            superiore a quello delle attuali


            architetture





            x86.".... Il risparmio energetico è uno

            dei





            vantaggi dell'





            "integrazione"...









            La fuffa del marketing ti piace tanto
            vedo.




            Peccato la realtà sia ben diversa.







            Anzichè trollare seguiti un corso di base



            d'elettronica...





            Tu si vede proprio che l'hai seguito
            invece..eh!


            Mah!



            Avendo conseguito un dottorato in elettronica
            più

            di uno.. ma all' 1.55 ero a nanna perchè durante

            il giorno si studiava e non a trollare su PI...

            seguiti un corso d'elettronica di

            base.

            Per come si conseguono i dottorati... si salvino
            i tuoi studenti, schiavetto dei baronetti, i prof
            universitari a cui lecchi le
            chiappe.
            Pane e luoghi comuni: i concorsi sono pubblici se mai ne sarai in grado potrai partecipare pure tu. Se sarai capace passerai altrimenti tornerai a trollare su PI Comunque va a studiare e non passare troppo tempo su PI, tutto tempo che sottrai alla tua formazione....
          • Anonimo scrive:
            Re: Gli articoli leggeteli....
            - Scritto da:
            - Scritto da:



            - Scritto da:





            - Scritto da:







            - Scritto da:









            - Scritto da:











            - Scritto da:






            "Tali chip, secondo il colosso,

            forniranno



            un






            rapporto performance per watt


            drasticamente






            superiore a quello delle attuali



            architetture






            x86.".... Il risparmio energetico è
            uno


            dei






            vantaggi dell'






            "integrazione"...











            La fuffa del marketing ti piace tanto

            vedo.





            Peccato la realtà sia ben diversa.









            Anzichè trollare seguiti un corso di base




            d'elettronica...







            Tu si vede proprio che l'hai seguito

            invece..eh!



            Mah!





            Avendo conseguito un dottorato in elettronica

            più


            di uno.. ma all' 1.55 ero a nanna perchè
            durante


            il giorno si studiava e non a trollare su
            PI...


            seguiti un corso d'elettronica di


            base.



            Per come si conseguono i dottorati... si salvino

            i tuoi studenti, schiavetto dei baronetti, i
            prof

            universitari a cui lecchi le

            chiappe.



            Pane e luoghi comuni: i concorsi sono pubblici se
            mai ne sarai in grado potrai partecipare pure tu.
            Se sarai capace passerai altrimenti tornerai a
            trollare su PI

            Comunque va a studiare e non passare troppo tempo
            su PI, tutto tempo che sottrai alla tua
            formazione...."i concorsi sono pubblici" .. sì, vabbè.. ed i polli ridono mentre le mucche volano... ehhh!Ma per favore ! Ma ci credi davvero a quello che hai scritto ? Direi che l'hai sparata lì proprio perchè sai bene che ho colto nel segno, almeno visto che scrivi in anonimo potresti avere la decenza di ammettere come vanno le cose, invece no, come tutti i raccomandati che ottengono i posti non per merito che fai ? Te ne esci pavoneggiandoti e dando agli altri dell'ignorante dall'alto della tua posizione da neo-baronetto universitario. L'università in Italia fa schifo proprio perchè è pieno esclusivamente di gente come te e non viene dato alcuno spazio a chi si meriterebbero di occupare i posti.
          • Anonimo scrive:
            Re: Gli articoli leggeteli....
            tutto questo sul fatto che lui è stato preso per raccomandazioni, non centra col fatto che tu non ne capisci niente di elettronica
          • Anonimo scrive:
            Re: Gli articoli leggeteli....
            - Scritto da:
            tutto questo sul fatto che lui è stato preso per
            raccomandazioni, non centra col fatto che tu non
            ne capisci niente di
            elettronicaCosa io ne capisco di elettronica tu non lo sai, e se difendi la GP-GPU di AMDATI come grande innovazione che risulterà in un prodotto a consumo più basso dimostri di non capirne molto. Dovrebbero produrre CPU e GPU integrate in GP-CPU almeno a 10nm o meno come processo produttivo per poterla chiamare integrazione. Altrimenti le CPU attuali a 65nm ed a breve a 45nm e le GPU che stanno già sotto 80nm non potranno avere alcun vantaggio ad essere integrate in un unico socket. Ma hai visto quanto è grande la G80 di Nvidia e quanto consuma in watt ? Ed ATI non sta certo messa meglio. Che ti vuoi integrare se il processo produttivo non diventa di decine di volte più piccolo ?
          • Anonimo scrive:
            Re: Gli articoli leggeteli....
            ma perchè pensi che integreranno G80?LOLsi parla, almeno inizialmente di gpu non molto dissimili da quelle attualmente integrate nel northbridge (chiaramente con le dovute differenze e vantaggi dal punti di vista prestazionale del collegamento diretto con la cpu)
    • Anonimo scrive:
      Re: L'assurdità da 300Watt+
      L'integrazione CPU-GPU si rende necessaria per ridurre i consumi, gli ingombri (dissipatori di calore enormi) ed i costi/prezzi delle schede video che stanno andando alle stelle. I vantaggi dell'integrazione sono questi:- Costi ridotti in quanto si produce un chip solo incece di 2- L'integrazione porterà alla scomparsa della FPU, sostituita dalla GPU Stessa (che è molto più efficiente nei calcoli)- La GPU potrà beneficiare dei processi produttivi dei processori molto più sofisticati che non ora, con vantaggio sia in termini di costi che di consumi.- Potendo godere la GPU delle frequenze operative della CPU potrà fare le stesse cose con meno transistors.In altre parole più prestazioni, minori consumi, minori costi.Ovviamente per le applicazioni più pesanti resterà la GPU esterna ma, probabilmente, questa verrà montata o sulla motherboard stessa o comunque collegata direttamente alla CPU con un bus speciale (vedi Torrenza di AMD).Comunque tutto questo comunque lo si verdrà da fine 2008-2009 in quanto occorrerà il processo a 45 nm per questa integrazione.
      • Anonimo scrive:
        Re: L'assurdità da 300Watt+
        Integrazione necessaria per ridurre i consumi?Ma che stai dicendo ?Dimostri proprio di non avere la più pallida idea di cosa parli.- Scritto da:
        L'integrazione CPU-GPU si rende necessaria per
        ridurre i consumi, gli ingombri (dissipatori di
        calore enormi) ed i costi/prezzi delle schede
        video che stanno andando alle stelle.

        I vantaggi dell'integrazione sono questi:

        - Costi ridotti in quanto si produce un chip solo
        incece di
        2
        - L'integrazione porterà alla scomparsa della
        FPU, sostituita dalla GPU Stessa (che è molto più
        efficiente nei
        calcoli)
        - La GPU potrà beneficiare dei processi
        produttivi dei processori molto più sofisticati
        che non ora, con vantaggio sia in termini di
        costi che di
        consumi.
        - Potendo godere la GPU delle frequenze operative
        della CPU potrà fare le stesse cose con meno
        transistors.

        In altre parole più prestazioni, minori consumi,
        minori
        costi.

        Ovviamente per le applicazioni più pesanti
        resterà la GPU esterna ma, probabilmente, questa
        verrà montata o sulla motherboard stessa o
        comunque collegata direttamente alla CPU con un
        bus speciale (vedi Torrenza di
        AMD).

        Comunque tutto questo comunque lo si verdrà da
        fine 2008-2009 in quanto occorrerà il processo a
        45 nm per questa
        integrazione.
        • Anonimo scrive:
          Re: L'assurdità da 300Watt+
          - Scritto da:
          Integrazione necessaria per ridurre i consumi?
          Ma che stai dicendo ?
          Dimostri proprio di non avere la più pallida idea
          di cosa
          parli.Qui l'unica cosa certa è che non hai mai aperto un libro d'elettronica in vita tua. Ti sta dicendo un'ovvietà che viene insegnata nei corsi d'elettronica I....
          • Anonimo scrive:
            Re: L'assurdità da 300Watt+
            - Scritto da:

            - Scritto da:

            Integrazione necessaria per ridurre i consumi?

            Ma che stai dicendo ?

            Dimostri proprio di non avere la più pallida
            idea

            di cosa

            parli.


            Qui l'unica cosa certa è che non hai mai aperto
            un libro d'elettronica in vita tua. Ti sta
            dicendo un'ovvietà che viene insegnata nei corsi
            d'elettronica
            I....Ma che ovvietà ed ovvietà ! Parlate di cose che non conoscete facendo i saputelli ed insistete pure. L'ignoranza è proprio una brutta bestia.
          • Anonimo scrive:
            Re: L'assurdità da 300Watt+
            - Scritto da:

            - Scritto da:



            - Scritto da:


            Integrazione necessaria per ridurre i consumi?


            Ma che stai dicendo ?


            Dimostri proprio di non avere la più pallida

            idea


            di cosa


            parli.





            Qui l'unica cosa certa è che non hai mai aperto

            un libro d'elettronica in vita tua. Ti sta

            dicendo un'ovvietà che viene insegnata nei corsi

            d'elettronica

            I....

            Ma che ovvietà ed ovvietà ! Parlate di cose che
            non conoscete facendo i saputelli ed insistete
            pure. L'ignoranza è proprio una brutta
            bestia.Tutti e due intanto non mi avete fatto capire chi ha ragione... perché l'integrazione porterebbe vantaggi? o perché non ne porterebbe? fornite argomentazioni, link o altro e poi potete insultarvi quanto vi pare e piace...Saluti, MeDevil
          • Anonimo scrive:
            Re: L'assurdità da 300Watt+

            Tutti e due intanto non mi avete fatto capire chi
            ha ragione... perché l'integrazione porterebbe
            vantaggi? o perché non ne porterebbe? fornite
            argomentazioni, link o altro e poi potete
            insultarvi quanto vi pare e
            piace...

            Saluti, MeDevilGuarda son banalità che sa chiunque abbia un minimo di nozioni di base...
          • Anonimo scrive:
            Re: L'assurdità da 300Watt+
            - Scritto da:

            - Scritto da:



            - Scritto da:





            - Scritto da:



            Integrazione necessaria per ridurre i
            consumi?



            Ma che stai dicendo ?



            Dimostri proprio di non avere la più pallida


            idea



            di cosa



            parli.








            Qui l'unica cosa certa è che non hai mai
            aperto


            un libro d'elettronica in vita tua. Ti sta


            dicendo un'ovvietà che viene insegnata nei
            corsi


            d'elettronica


            I....



            Ma che ovvietà ed ovvietà ! Parlate di cose che

            non conoscete facendo i saputelli ed insistete

            pure. L'ignoranza è proprio una brutta

            bestia.

            Tutti e due intanto non mi avete fatto capire chi
            ha ragione... perché l'integrazione porterebbe
            vantaggi? o perché non ne porterebbe? fornite
            argomentazioni, link o altro e poi potete
            insultarvi quanto vi pare e
            piace...

            Saluti, MeDevil------http://forums.whirlpool.net.au/forum-replies-archive.cfm/603302.htmlUser #41085 2441 postsKlamathWhirlpool Forums AddictVeritas writes...Bzzzzt. Wrong. The functions of a GPU will simply be added as, say, an additional 60 cores on the CPU.So we end up with 1 integrated solution...cool. What ur talking about is a long way off being mainstream simply because it will require a rewrite of almost all of that sort of software, something that the industry is reluctant to do. ( Look at 64bit chips, the first attempts failed because they werent backwards compatible )60 Cores? And u havent seen the problems with multicores now? SGI tried (and pretty much failed) to develop hardware that would scale across multiple cores. It will require either a success of that sort of hardware or serious multi-threaded programming. That hardware cost millions to develop and failed, so far theres not much on the horizon.Indeed. But the distinction between CPU and GPU will disappear.Sounds like someone hasnt heard of SGI and thier failure to do just that, it led to their downfall.
          • Anonimo scrive:
            Re: L'assurdità da 300Watt+
            Prima considerazione : che fonte!!!! (rotfl)(rotfl)(rotfl)(rotfl)Seconda considerazione: che ci incastra ?
          • Anonimo scrive:
            Re: L'assurdità da 300Watt+
            - Scritto da:

            - Scritto da:



            - Scritto da:


            Integrazione necessaria per ridurre i consumi?


            Ma che stai dicendo ?


            Dimostri proprio di non avere la più pallida

            idea


            di cosa


            parli.





            Qui l'unica cosa certa è che non hai mai aperto

            un libro d'elettronica in vita tua. Ti sta

            dicendo un'ovvietà che viene insegnata nei corsi

            d'elettronica

            I....

            Ma che ovvietà ed ovvietà ! Parlate di cose che
            non conoscete facendo i saputelli ed insistete
            pure. L'ignoranza è proprio una brutta
            bestia.A studiare ....
          • Anonimo scrive:
            Re: L'assurdità da 300Watt+
            - Scritto da:

            - Scritto da:



            - Scritto da:





            - Scritto da:



            Integrazione necessaria per ridurre i
            consumi?



            Ma che stai dicendo ?



            Dimostri proprio di non avere la più pallida


            idea



            di cosa



            parli.








            Qui l'unica cosa certa è che non hai mai
            aperto


            un libro d'elettronica in vita tua. Ti sta


            dicendo un'ovvietà che viene insegnata nei
            corsi


            d'elettronica


            I....



            Ma che ovvietà ed ovvietà ! Parlate di cose che

            non conoscete facendo i saputelli ed insistete

            pure. L'ignoranza è proprio una brutta

            bestia.


            A studiare ....Sei tu che devi studiare.
          • Anonimo scrive:
            Re: L'assurdità da 300Watt+
            - Scritto da:

            - Scritto da:



            - Scritto da:





            - Scritto da:







            - Scritto da:




            Integrazione necessaria per ridurre i

            consumi?




            Ma che stai dicendo ?




            Dimostri proprio di non avere la più
            pallida



            idea




            di cosa




            parli.











            Qui l'unica cosa certa è che non hai mai

            aperto



            un libro d'elettronica in vita tua. Ti sta



            dicendo un'ovvietà che viene insegnata nei

            corsi



            d'elettronica



            I....





            Ma che ovvietà ed ovvietà ! Parlate di cose
            che


            non conoscete facendo i saputelli ed insistete


            pure. L'ignoranza è proprio una brutta


            bestia.





            A studiare ....


            Sei tu che devi studiare.Ho detto studiare non trollare... trollare su PI non fa titolo... Partiamo da un classico:Millman-Halkias Microelettronicane riparliamo tra un 1000 pagine e spiccioli
          • Anonimo scrive:
            Re: L'assurdità da 300Watt+
            - Scritto da:

            - Scritto da:



            - Scritto da:





            - Scritto da:







            - Scritto da:









            - Scritto da:





            Integrazione necessaria per ridurre i


            consumi?





            Ma che stai dicendo ?





            Dimostri proprio di non avere la più

            pallida




            idea





            di cosa





            parli.














            Qui l'unica cosa certa è che non hai mai


            aperto




            un libro d'elettronica in vita tua. Ti sta




            dicendo un'ovvietà che viene insegnata nei


            corsi




            d'elettronica




            I....







            Ma che ovvietà ed ovvietà ! Parlate di cose

            che



            non conoscete facendo i saputelli ed
            insistete



            pure. L'ignoranza è proprio una brutta



            bestia.








            A studiare ....





            Sei tu che devi studiare.


            Ho detto studiare non trollare... trollare su PI
            non fa titolo...


            Partiamo da un classico:
            Millman-Halkias Microelettronica

            ne riparliamo tra un 1000 pagine e spiccioliSì, sentenzia i tomi dei libri che puoi aver imparato a memoria.. quella sì che è conoscenza, bravura, cultura.. ehhh! Hai mai progettato una CPU ? Ne hai mai programmata una a basso livello ? A parte averla vista sui libri, hai mai fatto qualcosa di concreto di tutta questa roba che non siano giochetti ma prodotti commerciali finiti ?
          • Anonimo scrive:
            Re: L'assurdità da 300Watt+
            probabilmente l'avrà fatto più di te
          • Anonimo scrive:
            Re: L'assurdità da 300Watt+
            - Scritto da:
            probabilmente l'avrà fatto più di teSe credi che i raccomandati con 110 e lode e che stanno dentro le università poi al servizio dei baronetti che voglioni imitare siano bravi ed indice di bravura... bhè, che dire ? Hai un distorto senso della realtà, schifosa realtà che viene oltretutto spudoratamente fatta passare per cosa buona e giusta.
          • Anonimo scrive:
            Re: L'assurdità da 300Watt+
            ma mi spieghi cosa centra ciò con le raccomandazioni?mi sa che ti hanno segato al dottorando e stai ancora a rosicare.
    • AlphaC scrive:
      Re: L'assurdità da 300Watt+
      - Scritto da:
      E se Intel seguirà AMD+ATI in questa stupidaggine
      della GP-CPU diremo addio alla modularità, i
      costi saliranno, servirà un alimentatore da
      1000Watt ed in modalità idle la GP-CPU si
      succhierà allegramente 100-150Watt, in pieno
      funzionamento almeno 300Watt o oltre.

      Considerando che le nuove GPU ATI e Nvidia in
      uscita consumano da sole oltre 150Watt e
      necessitano di un alimentatore esterno...
      che razza di idiozia, integrando i due processori aumenterebbe l'efficenza, cmq si parla di sistemi embedded ed integrati, non gamer o workstation
      • Anonimo scrive:
        Re: L'assurdità da 300Watt+
        - Scritto da: AlphaC

        - Scritto da:

        E se Intel seguirà AMD+ATI in questa
        stupidaggine

        della GP-CPU diremo addio alla modularità, i

        costi saliranno, servirà un alimentatore da

        1000Watt ed in modalità idle la GP-CPU si

        succhierà allegramente 100-150Watt, in pieno

        funzionamento almeno 300Watt o oltre.



        Considerando che le nuove GPU ATI e Nvidia in

        uscita consumano da sole oltre 150Watt e

        necessitano di un alimentatore esterno...



        che razza di idiozia, integrando i due processori
        aumenterebbe l'efficenza, cmq si parla di sistemi
        embedded ed integrati, non gamer o
        workstationIntegrandoli aumenta solo la velocità dei bus di connessione, non i consumi elettrici.
    • Anonimo scrive:
      Re: L'assurdità da 300Watt+
      Voglio sperare che dato che tali GP-CPU saranno realizzate con tecnologia a 65nm e poi in seguito a 45nm e via scendendo, consumeranno complessivamente meno di una soluzione con CPU e GPU separate, con la CPU ancora a 90nm e in più il consumo dei chip di contorno nella scheda di espansione.Immagino comunque che per ovvi problemi di dissipazione tali GP-CPU useranno GPU di fascia media o bassa, che comunque, al momento del rilascio di questi multicore avranno potenze paragonabili all'attuale fascia medio-alta, e quindi anche enormemente più performanti delle più veloci fra le attuali soluzioni con GPU integrata nella MoBo che andranno a sostituire.In ogni caso il problema dissipazione non si porrà finché tali soluzioni non sconfineranno nella fascia alta.
      • Anonimo scrive:
        Re: L'assurdità da 300Watt+
        Guarda che le CPU sono a 65nm d Intel da un pezzo, a 45nm nei prossimi mesi. E dual core consumano un 60-80Watt.Sei rimasto ad anni fa. Le GPU stanno andando sotto 80nm e richiedono 150Watt.. vedi tu...- Scritto da:
        Voglio sperare che dato che tali GP-CPU saranno
        realizzate con tecnologia a 65nm e poi in seguito
        a 45nm e via scendendo, consumeranno
        complessivamente meno di una soluzione con CPU e
        GPU separate, con la CPU ancora a 90nm e in più
        il consumo dei chip di contorno nella scheda di
        espansione.
        Immagino comunque che per ovvi problemi di
        dissipazione tali GP-CPU useranno GPU di fascia
        media o bassa, che comunque, al momento del
        rilascio di questi multicore avranno potenze
        paragonabili all'attuale fascia medio-alta, e
        quindi anche enormemente più performanti delle
        più veloci fra le attuali soluzioni con GPU
        integrata nella MoBo che andranno a
        sostituire.
        In ogni caso il problema dissipazione non si
        porrà finché tali soluzioni non sconfineranno
        nella fascia
        alta.
        • Anonimo scrive:
          Re: L'assurdità da 300Watt+
          - Scritto da:
          Guarda che le CPU sono a 65nm d Intel da un
          pezzo, a 45nm nei prossimi mesi. E dual core
          consumano un
          60-80Watt.
          Sei rimasto ad anni fa. Le GPU stanno andando
          sotto 80nm e richiedono 150Watt.. vedi
          tu...
          AMD ci sta passando ora, ma coi 90nm ha comunque avuto molti meno problemi di intel.Quanto alle GPU, solo quelle di fascia alta, che spingono troppo ai limiti le tecnologie attuali, aumentano a dismisura le dissipazioni, se scendi di gamma trovi chip che non hanno bisogno di alimentazione supplementare e perfino neanche di ventola, pur fornendo prestazioni superiori alla fascia media dell'anno scorso.Ovvio che comunque l'approccio GP-CPU per la fascia alta attuale è improponibile, ma questa soluzione potrebbe far uscire le macchine di fascia più bassa e i mini PC dal ghetto delle basse prestazioni.
          • Anonimo scrive:
            Re: L'assurdità da 300Watt+
            - Scritto da:

            - Scritto da:

            Guarda che le CPU sono a 65nm d Intel da un

            pezzo, a 45nm nei prossimi mesi. E dual core

            consumano un

            60-80Watt.

            Sei rimasto ad anni fa. Le GPU stanno andando

            sotto 80nm e richiedono 150Watt.. vedi

            tu...


            AMD ci sta passando ora, ma coi 90nm ha comunque
            avuto molti meno problemi di
            intel.
            Quanto alle GPU, solo quelle di fascia alta, che
            spingono troppo ai limiti le tecnologie attuali,
            aumentano a dismisura le dissipazioni, se scendi
            di gamma trovi chip che non hanno bisogno di
            alimentazione supplementare e perfino neanche di
            ventola, pur fornendo prestazioni superiori alla
            fascia media dell'anno
            scorso.
            Ovvio che comunque l'approccio GP-CPU per la
            fascia alta attuale è improponibile, ma questa
            soluzione potrebbe far uscire le macchine di
            fascia più bassa e i mini PC dal ghetto delle
            basse
            prestazioni.90nm problemi di Intel ? Quali problemi ? AMD è arrivata a 90nm secoli dopo, ci credo che abbia avuto una produzione migliore, tutti erano passati a 90nm oramai e stavano migrando a 65nm
          • Anonimo scrive:
            Re: L'assurdità da 300Watt+
            AMD usa la tecnologia SOI che permette di risolvere parecchi problemi rispetto ai processi Intel (leakage su tutti)
          • Anonimo scrive:
            Re: L'assurdità da 300Watt+
            - Scritto da:
            AMD usa la tecnologia SOI che permette di
            risolvere parecchi problemi rispetto ai processi
            Intel (leakage su
            tutti)Parlare a vanvera... Intel ha adottato tecnologie analoghe al SOI da molti anni oramai.
          • Anonimo scrive:
            Re: L'assurdità da 300Watt+
            si certo, quali? cita pure... aspetto con impazienza.parli dello 'high-k'? non è proprio lo stesso concetto del SOI, e non porta tutti i suoi vantaggi.
Chiudi i commenti