Vedere un film al cinema è una modalità di accesso alla cultura ed all’intrattenimento da sempre popolare, particolarmente per chi si ricorda di quando non esistevano alternative digitali e neppure televisive.
Questo antico piacere ha beneficiato di grandi miglioramenti tecnologici che lo hanno ulteriormente esaltato ; al fascino della sala buia e del grande schermo, che fanno sentire in mezzo all’azione, si aggiungono effetti speciali, audio tecnologico e pellicole ad alta risoluzione.
Certo, anche al cinema esistevano fattori negativi; al non basso prezzo del biglietto (per le tasche di uno studente) si aggiungeva la necessità di sottoporsi al rito preliminare delle diapositive, della pubblicità, del cinegiornale e se il film era un cartone animato, anche del documentario. Ma una nuova ed almeno per me peggiore causa di disturbo, anzi di vero fastidio, si è aggiunta in questi ultimi tempi.
Vi sarete certo accorti che finito il rito preliminare, invece del film parte uno spot (“Non faresti questo, non faresti quello….”) che sembra girato da un operatore svolazzante su oscuri bassifondi, sonorizzato da un rumorista sadico, titolato da una persona affetta da delirium tremens e sceneggiato da quello che qualcuno potrebbe ritenere un esattore della mafia.
C’è un dubbio che mi assilla; qual è lo scopo per cui questo spot viene proiettato al cinema? Perché proprio li e non, ad esempio, in televisione?
Se la logica spicciola funzionasse, il cinema è l’ultimo posto dove proiettarlo. Il cinematografo è un tempio in cui ci si reca per onorare l’attuale modello storico della proprietà intellettuale, almeno temporaneamente. I frequentatori di questo tempio obbediscono religiosamente a tutti i comandamenti, inclusa la carità di un obolo in contanti. Perché punirli? Perché sottoporli a questo messaggio, sgradevole e, dato il contesto, particolarmente inutile ed inadatto? Sono spettatori paganti, i cui soldi finiscono direttamente e nelle percentuali stabilite dalle leggi nelle casse delle major del cinema e degli enti che si propongono di proteggerle dall’assalto della “pirateria”.
Viene spontaneo indirizzare un messaggio, anzi una preghiera, a chi con mano illuminata e severa tali enti dirige. Lo spot somministratelo negli internet café e nei negozi di pc, posti sordidi notoriamente frequentati da filibustieri di tutte le specie. Martellate la gente per televisione. Al limite proiettatelo a scopi (dis)educativi nelle scuole per formare le giovani menti.
Non è un’idea originale, all’estero tentano di fare così, ed hanno creato addirittura i fumetti di Capitan Copyright su questo tema. Quanto cio’ funzioni è un’altra questione, che non ci interessa in questa sede. E per fortuna c’è anche un personaggio rivale . In Italia il peggio che vi potrebbe capitare è che una novella Giovanna , mamma piuttosto che nonna di un futuro Corsaro Nero, protestasse col preside e scrivesse al ministro.
Riduco tutto ad una unica domanda: “Perché state importunando i VOSTRI CLIENTI con questo spot?”
Io riesco a vedere solo una spiegazione razionale che può giustificare una simile ed apparentemente suicida strategia: il sapere che la cosiddetta pirateria è un comportamento ormai sociale, adottato praticamente da tutti, incluso coloro che vanno al cinema. Come il bere ai tempi del proibizionismo.
Gli spettatori, in questo caso, sarebbero solo un bersaglio molto più facile di altri da raggiungere e tentare di dissuadere con ogni mezzo. Sono seduti a portata di mano e se si alzassero e se ne andassero perderebbero i soldi del biglietto. Gli tocca restare e subire. Se questa fosse la spiegazione, vorrei appunto comunicarvi che state facendomi passare la voglia di andare al cinema. Nel caso degli altri ovviamente non so, provate ad investire qualche soldo non in spot ma in un sondaggio.
Ma se così non fosse, se questa spiegazione fosse errata, sarei lieto di avere quella giusta da chi commissiona queste campagne pubblicitarie. La cosa potrebbe interessare a molte persone.
Marco Calamari
Tutte le release di Cassandra Crossing sono disponibili a questo indirizzo
-
L'assurdità da 300Watt+
E se Intel seguirà AMD+ATI in questa stupidaggine della GP-CPU diremo addio alla modularità, i costi saliranno, servirà un alimentatore da 1000Watt ed in modalità idle la GP-CPU si succhierà allegramente 100-150Watt, in pieno funzionamento almeno 300Watt o oltre. Considerando che le nuove GPU ATI e Nvidia in uscita consumano da sole oltre 150Watt e necessitano di un alimentatore esterno...AnonimoRe: L'assurdità da 300Watt+
Si infatti.Spero lo facciano solo per il mercato economico...molto economicoCireneRe: L'assurdità da 300Watt+
- Scritto da: Cirene> Si infatti.Spero lo facciano solo per il mercato> economico...molto> economicoSono per prodotti embedAnonimoRe: L'assurdità da 300Watt+
- Scritto da: > > - Scritto da: Cirene> > Si infatti.Spero lo facciano solo per il mercato> > economico...molto> > economico> > Sono per prodotti embedQuesto lo dici tu.AnonimoRe: L'assurdità da 300Watt+
mi spieghi che differenza fa mettere la gpu insieme alla cpu, o insieme al chipset?piuttosto essendo il processo produttivo delle cpu pià raffinato, ed essendo cpu e gpu collegate direttamente, si avrà un calo di consumi ed aumento di prestazioni.... cosa ottima soprattutto nei portatiliAnonimoRe: L'assurdità da 300Watt+
- Scritto da: > mi spieghi che differenza fa mettere la gpu> insieme alla cpu, o insieme al> chipset?> piuttosto essendo il processo produttivo delle> cpu pià raffinato, ed essendo cpu e gpu collegate> direttamente, si avrà un calo di consumi ed> aumento di prestazioni.... cosa ottima> soprattutto nei> portatiliMa che stai dicendo ? Vaneggi.AnonimoRe: L'assurdità da 300Watt+
sei un idiotaAnonimoRe: L'assurdità da 300Watt+
sei un troll della peggior specieAnonimoRe: L'assurdità da 300Watt+
Se vogliono giocarsela contro i centrino fanno meglio a calare le preteseAnonimoRe: L'assurdità da 300Watt+
- Scritto da: > Se vogliono giocarsela contro i centrino fanno> meglio a calare le> pretesedai bench che ho letto amd mantiene il miglior rapporto prezzo prestazioni (come sempre) e prestazioni/consumo sul turion.AlphaCRe: L'assurdità da 300Watt+
- Scritto da: AlphaC> > - Scritto da: > > Se vogliono giocarsela contro i centrino fanno> > meglio a calare le> > pretese> > dai bench che ho letto amd mantiene il miglior> rapporto prezzo prestazioni (come sempre) e> prestazioni/consumo sul> turion.Allora hai letto proprio male visto che la tecnologia Centrino di Intel su desktop con Core 2 Duo, su notebook con Merom, e su server con Woodcrest e Tigertown è la migliore sul mercato al momento ed AMD non ha un cavolo di niente per contrastarla.AnonimoGli articoli leggeteli....
"Tali chip, secondo il colosso, forniranno un rapporto performance per watt drasticamente superiore a quello delle attuali architetture x86.".... Il risparmio energetico è uno dei vantaggi dell' "integrazione"...AnonimoRe: Gli articoli leggeteli....
- Scritto da: > "Tali chip, secondo il colosso, forniranno un> rapporto performance per watt drasticamente> superiore a quello delle attuali architetture> x86.".... Il risparmio energetico è uno dei> vantaggi dell'> "integrazione"...La fuffa del marketing ti piace tanto vedo. Peccato la realtà sia ben diversa.AnonimoRe: Gli articoli leggeteli....
- Scritto da: > > - Scritto da: > > "Tali chip, secondo il colosso, forniranno un> > rapporto performance per watt drasticamente> > superiore a quello delle attuali architetture> > x86.".... Il risparmio energetico è uno dei> > vantaggi dell'> > "integrazione"...> > La fuffa del marketing ti piace tanto vedo.> Peccato la realtà sia ben diversa.Anzichè trollare seguiti un corso di base d'elettronica...AnonimoRe: L'assurdità da 300Watt+
L'integrazione CPU-GPU si rende necessaria per ridurre i consumi, gli ingombri (dissipatori di calore enormi) ed i costi/prezzi delle schede video che stanno andando alle stelle. I vantaggi dell'integrazione sono questi:- Costi ridotti in quanto si produce un chip solo incece di 2- L'integrazione porterà alla scomparsa della FPU, sostituita dalla GPU Stessa (che è molto più efficiente nei calcoli)- La GPU potrà beneficiare dei processi produttivi dei processori molto più sofisticati che non ora, con vantaggio sia in termini di costi che di consumi.- Potendo godere la GPU delle frequenze operative della CPU potrà fare le stesse cose con meno transistors.In altre parole più prestazioni, minori consumi, minori costi.Ovviamente per le applicazioni più pesanti resterà la GPU esterna ma, probabilmente, questa verrà montata o sulla motherboard stessa o comunque collegata direttamente alla CPU con un bus speciale (vedi Torrenza di AMD).Comunque tutto questo comunque lo si verdrà da fine 2008-2009 in quanto occorrerà il processo a 45 nm per questa integrazione.AnonimoRe: L'assurdità da 300Watt+
Integrazione necessaria per ridurre i consumi?Ma che stai dicendo ?Dimostri proprio di non avere la più pallida idea di cosa parli.- Scritto da: > L'integrazione CPU-GPU si rende necessaria per> ridurre i consumi, gli ingombri (dissipatori di> calore enormi) ed i costi/prezzi delle schede> video che stanno andando alle stelle.> > I vantaggi dell'integrazione sono questi:> > - Costi ridotti in quanto si produce un chip solo> incece di> 2> - L'integrazione porterà alla scomparsa della> FPU, sostituita dalla GPU Stessa (che è molto più> efficiente nei> calcoli)> - La GPU potrà beneficiare dei processi> produttivi dei processori molto più sofisticati> che non ora, con vantaggio sia in termini di> costi che di> consumi.> - Potendo godere la GPU delle frequenze operative> della CPU potrà fare le stesse cose con meno> transistors.> > In altre parole più prestazioni, minori consumi,> minori> costi.> > Ovviamente per le applicazioni più pesanti> resterà la GPU esterna ma, probabilmente, questa> verrà montata o sulla motherboard stessa o> comunque collegata direttamente alla CPU con un> bus speciale (vedi Torrenza di> AMD).> > Comunque tutto questo comunque lo si verdrà da> fine 2008-2009 in quanto occorrerà il processo a> 45 nm per questa> integrazione.AnonimoRe: L'assurdità da 300Watt+
- Scritto da: > Integrazione necessaria per ridurre i consumi?> Ma che stai dicendo ?> Dimostri proprio di non avere la più pallida idea> di cosa> parli.Qui l'unica cosa certa è che non hai mai aperto un libro d'elettronica in vita tua. Ti sta dicendo un'ovvietà che viene insegnata nei corsi d'elettronica I....AnonimoRe: L'assurdità da 300Watt+
- Scritto da: > E se Intel seguirà AMD+ATI in questa stupidaggine> della GP-CPU diremo addio alla modularità, i> costi saliranno, servirà un alimentatore da> 1000Watt ed in modalità idle la GP-CPU si> succhierà allegramente 100-150Watt, in pieno> funzionamento almeno 300Watt o oltre.> > Considerando che le nuove GPU ATI e Nvidia in> uscita consumano da sole oltre 150Watt e> necessitano di un alimentatore esterno...> che razza di idiozia, integrando i due processori aumenterebbe l'efficenza, cmq si parla di sistemi embedded ed integrati, non gamer o workstationAlphaCRe: L'assurdità da 300Watt+
- Scritto da: AlphaC> > - Scritto da: > > E se Intel seguirà AMD+ATI in questa> stupidaggine> > della GP-CPU diremo addio alla modularità, i> > costi saliranno, servirà un alimentatore da> > 1000Watt ed in modalità idle la GP-CPU si> > succhierà allegramente 100-150Watt, in pieno> > funzionamento almeno 300Watt o oltre.> > > > Considerando che le nuove GPU ATI e Nvidia in> > uscita consumano da sole oltre 150Watt e> > necessitano di un alimentatore esterno...> > > > che razza di idiozia, integrando i due processori> aumenterebbe l'efficenza, cmq si parla di sistemi> embedded ed integrati, non gamer o> workstationIntegrandoli aumenta solo la velocità dei bus di connessione, non i consumi elettrici.AnonimoRe: L'assurdità da 300Watt+
Voglio sperare che dato che tali GP-CPU saranno realizzate con tecnologia a 65nm e poi in seguito a 45nm e via scendendo, consumeranno complessivamente meno di una soluzione con CPU e GPU separate, con la CPU ancora a 90nm e in più il consumo dei chip di contorno nella scheda di espansione.Immagino comunque che per ovvi problemi di dissipazione tali GP-CPU useranno GPU di fascia media o bassa, che comunque, al momento del rilascio di questi multicore avranno potenze paragonabili all'attuale fascia medio-alta, e quindi anche enormemente più performanti delle più veloci fra le attuali soluzioni con GPU integrata nella MoBo che andranno a sostituire.In ogni caso il problema dissipazione non si porrà finché tali soluzioni non sconfineranno nella fascia alta.AnonimoRe: L'assurdità da 300Watt+
Guarda che le CPU sono a 65nm d Intel da un pezzo, a 45nm nei prossimi mesi. E dual core consumano un 60-80Watt.Sei rimasto ad anni fa. Le GPU stanno andando sotto 80nm e richiedono 150Watt.. vedi tu...- Scritto da: > Voglio sperare che dato che tali GP-CPU saranno> realizzate con tecnologia a 65nm e poi in seguito> a 45nm e via scendendo, consumeranno> complessivamente meno di una soluzione con CPU e> GPU separate, con la CPU ancora a 90nm e in più> il consumo dei chip di contorno nella scheda di> espansione.> Immagino comunque che per ovvi problemi di> dissipazione tali GP-CPU useranno GPU di fascia> media o bassa, che comunque, al momento del> rilascio di questi multicore avranno potenze> paragonabili all'attuale fascia medio-alta, e> quindi anche enormemente più performanti delle> più veloci fra le attuali soluzioni con GPU> integrata nella MoBo che andranno a> sostituire.> In ogni caso il problema dissipazione non si> porrà finché tali soluzioni non sconfineranno> nella fascia> alta.AnonimoRe: L'assurdità da 300Watt+
- Scritto da: > Guarda che le CPU sono a 65nm d Intel da un> pezzo, a 45nm nei prossimi mesi. E dual core> consumano un> 60-80Watt.> Sei rimasto ad anni fa. Le GPU stanno andando> sotto 80nm e richiedono 150Watt.. vedi> tu...> AMD ci sta passando ora, ma coi 90nm ha comunque avuto molti meno problemi di intel.Quanto alle GPU, solo quelle di fascia alta, che spingono troppo ai limiti le tecnologie attuali, aumentano a dismisura le dissipazioni, se scendi di gamma trovi chip che non hanno bisogno di alimentazione supplementare e perfino neanche di ventola, pur fornendo prestazioni superiori alla fascia media dell'anno scorso.Ovvio che comunque l'approccio GP-CPU per la fascia alta attuale è improponibile, ma questa soluzione potrebbe far uscire le macchine di fascia più bassa e i mini PC dal ghetto delle basse prestazioni.AnonimoK8L SUBITO!
Speriamo che con questa onerosissima acquisizione AMD abbia la forza di risollevarsi dal botta presa da Intel e lanci il prima possibile il K8L.AnonimoRe: K8L SUBITO!
se guardi le entrate dell'ultimo trimestre AMD, la batosta non si vede proprio ;)Con la riduzione dei prezzi, AMD vende più di prima.AnonimoRe: K8L SUBITO!
appena esce il core quadro voglio vedere che succede...AnonimoRe: K8L SUBITO!
niente, visto che quelli che sono disposti a compare un processore a 1000 dollari sono una minoranza trascurabile... i soldi si fanno nella fascia medio-bassa.AnonimoDriver ATI accettabili ?!
Che sia la volta buona per avere dei driver di qualità accettabile sia sotto win che sotto linux ?AnonimoRe: Driver ATI accettabili ?!
Beh sono d'accordo con te nel dire che i driver linux di Ati fanno abbastanza pena ma sotto windows non si puo' dire che siano scadenti anzi sono migliori sotto molti punti di vista rispetto ai concorrentiAnonimoRe: Driver ATI accettabili ?!
- Scritto da: > Beh sono d'accordo con te nel dire che i driver> linux di Ati fanno abbastanza pena ma sotto> windows non si puo' dire che siano scadenti anzi> sono migliori sotto molti punti di vista rispetto> ai> concorrentiMah sotto linux sono pietosi sotto win non è che siano molto meglio ho avuto problemi sia sul portatile che sul desktop. I driver Nvidia sono nettamente superiori.AnonimoRe: Driver ATI accettabili ?!
> Mah sotto linux sono pietosi sotto win non è che> siano molto meglio ho avuto problemi sia sul> portatile che sul desktop. I driver Nvidia sono> nettamente> superiori.Boh, ho sempre avuto ATI e con grande soddisfazione, recentemente sono passato a nForce4 e ho voluto abbinargli una GPU nVidia, ed è stata una delusione su entrambi i fronti... appena posso torno ad ATI...Athlon64Re: Driver ATI accettabili ?!
- Scritto da: > Beh sono d'accordo con te nel dire che i driver> linux di Ati fanno abbastanza pena ma sotto> windows non si puo' dire che siano scadenti anzi> sono migliori sotto molti punti di vista rispetto> ai> concorrentiSì, come no. Infatti tutti quelli che conosco che hanno ATI hanno problemi che con Nvidia non ci sono.AnonimoRe: Driver ATI accettabili ?!
E' proprio così. :-)AnonimoRe: Driver ATI accettabili ?!
- Scritto da: > Che sia la volta buona per avere dei driver di> qualità accettabile sia sotto win che sotto linux> ?non ti nascondo che lo spero proprio. Tuttavia stavo vedendo che anche i driver opensource per nv stanno facendo enormi progressi. Attenderò ancora prima di prendermene una nuova :)AnonimoRe: Driver ATI accettabili ?!
- Scritto da: > Che sia la volta buona per avere dei driver di> qualità accettabile sia sotto win che sotto linux> ?MAMMAGARI!Sarebbe pure ora che apra sti' cavolo di driver, e che migliorasse il supporto a OpenGL. Venderebbe un marea di schede in piu'.Io pure ho usato per anni ATI, ma visto che Linux fa pieta', sono stato costretto a prendere le nVidia (che e' solo un po' meglio, non tanto).Magari con la fusione qualcosa si muovera' in tal senso, perche' AMD ha una certa vocazione per' l'Open (vedi HyperTransport, e tutti gli altri standard open che ha promosso), quindi forse potrebbero finalmente curare dei driver decenti anche per Linux.AnonimoRe: Driver ATI accettabili ?!
- Scritto da: > Che sia la volta buona per avere dei driver di> qualità accettabile sia sotto win che sotto linux> ?Credo che questo genere di pensiero sia venuto a MOOOOOOOOLLLLLLTTTTTTAAAAAA gente!AnonimoRe: Driver ATI accettabili ?!
che migliorino almeno su Windows e soprattutto venga alleggerito l'installer (30 MB + sono inspiegabili).Per linux possono attendere, tanto non ci sono ambizioni di gaming/multimedia spinti in quell' OS.Basta che che la riga di comando funzioni e l'user linux è più che contento.AnonimoIdea interessante
Forse non avete compreso bene, qui si tratta di poter utilizzare uno o più core a seconda delle necessità o per compiti grafici o per potenza di calcolo, ottimizzando di continuo il carico di lavoro fra parte grafica e parte "CPU classica".Se il sistema è ben sviluppato avremo pc in grado di utlizzare molto meglio le loro potenzialità, infatti tutti sappiamo che esistono dei picchi di potenza di elaborazione richiesta al PC accompagnati da periodi di scarsa richiesta di attività della CPU, che in molti casi non coincidono con l'attività richiesta ala scheda grafica.Sono convinto che per molti pc, che non richiedano prestazioni video "estreme" possa essere una buona soluzione per contenere i costi, mantenendo buone prestazioniEnjoy with UsPerché non su X2 ?
Forse per gli utenti normali sarebbe stato più interessante avere una CPU ed una GPU in un solo chip. Anche perché qualcuno si è reso conto che il multicore non gli serve...Marco RavichAnonimoRe: Perché non su X2 ?
- Scritto da: > Forse per gli utenti normali sarebbe stato più> interessante avere una CPU ed una GPU in un solo> chip. Anche perché qualcuno si è reso conto che> il multicore non gli> serve...> > Marco RavichVeramente il dual core almeno un pochino lo sfrutti con la maggior parte dei SO, oltre sono d'accordo anch'io, diventa vantaggioso solo sui server o su applicazione scritte e compilate appositamente... un tri-core, 2 CPU + 1 GPU non lo vedo impossibile, già la XBox360 usa un tri-core con 3 CPU, ma se il quadri-core fosse più facile da fare per questioni puramente geometriche, potrebbero fare 2 CPU + 2 GPU di fascia media in CrossFire che fornirebbero una potenza di calcolo paragonabile a una GPU di fascia alta, oppure potrebbero essere usate una per l'accelerazione grafica e l'altra per quella fisica.AnonimoRe: Perché non su X2 ?
- Scritto da: > > - Scritto da: > > Forse per gli utenti normali sarebbe stato più> > interessante avere una CPU ed una GPU in un solo> > chip. Anche perché qualcuno si è reso conto che> > il multicore non gli> > serve...> > > > Marco Ravich> > Veramente il dual core almeno un pochino lo> sfrutti con la maggior parte dei SO, oltre sono> d'accordo anch'io, diventa vantaggioso solo sui> server o su applicazione scritte e compilate> appositamente... un tri-core, 2 CPU + 1 GPU non> lo vedo impossibile, già la XBox360 usa un> tri-core con 3 CPU, ma se il quadri-core fosse> più facile da fare per questioni puramente> geometriche, potrebbero fare 2 CPU + 2 GPU di> fascia media in CrossFire che fornirebbero una> potenza di calcolo paragonabile a una GPU di> fascia alta, oppure potrebbero essere usate una> per l'accelerazione grafica e l'altra per quella> fisica.Intel sta lavorando a CPU da 32 e 128 core per i prossimi 4-8 anni...AnonimoRe: Perché non su X2 ?
Se arrivano a quel numero di core, allora diventa interessante.Perché c'è spazio per mettere dentro core specializzati per :Se il processore ha 8 core uno puo scegliere tra 4 CPU e una Unità per tipoSe ne ha 16 si può tranquillamente raddoppiare tutto:1) 2 x Grafica 3D2) 2 x Fisica3) 2 x Intelligenza Artificiale4) 2 x Criptografia5) 8 CPUIn più, se un processore viene male, si disabilità il core fallato e lo si vende come CPU di livello inferiore.Sarà divertente vedere come evolverà il mercato.painlord2kGrazie, il tuo commento è in fase di approvazioneGrazie, il tuo commento è stato pubblicatoCommento non inviatoGrazie per esserti iscritto alla nostra newsletterOops, la registrazione alla newsletter non è andata a buon fine. Riprova.Leggi gli altri commentiPubblicato il 27 ott 2006Ti potrebbe interessare