Google, il search non copia

La corte suprema tedesca ribalta la sentenza di primo grado che aveva giudicato colpevole Google Image search. Le anteprime non violano il diritto d'autore

Roma – La Corte Suprema tedesca ha deciso in favore della ricerca per immagini di Google, ribaltando così la sentenza che aveva visto Mountain View condannata per violazione di copyright.

Un artista aveva denunciato Google perché i suoi quadri, da lui stesso caricati in Rete, apparivano nelle anteprime della ricerca per immagini di Google : ciò avrebbe costituito, secondo l’accusa e il tribunale di primo grado, una violazione della sua proprietà intellettuale. Non furono allora considerate dal tribunale né la tesi delle immagini degradate né, come stabilito per esempio da una corte degli Stati Uniti, il principio del fair use.

La Corte ha ora spiegato che il comportamento del querelante (l’aver caricato le immagini senza aver preso provvedimenti per tenere lontani i bot di BigG) potesse essere interpretato da Google come un’autorizzazione ad utilizzarle. Mentre Mountain View sarebbe stata responsabile nel caso in cui le immagini fossero state caricate senza il permesso dell’artista e il motore di ricerca ne fosse stato a conoscenza.

In attesa delle motivazioni complete della nuova sentenza è Google a sottolineare che essa ribadisce la “legittimità del mostrare anteprime di immagini all’interno dei risultati di una ricerca”.

Allo stesso modo si dovrà esprimere sulla liceità delle anteprime offerte da Google una corte svedese, anche se in questo caso l’accusa è quella di “pubblicare” le diffamazioni effettuate da anonimi nelle anteprime dei risultati di ricerca.

Claudio Tamburrino

La tua email sarà utilizzata per comunicarti se qualcuno risponde al tuo commento e non sarà pubblicato. Dichiari di avere preso visione e di accettare quanto previsto dalla informativa privacy

  • JerusalemLo t scrive:
    Memoria corta? Havok!
    Alla Nvidia soffrono di memoria corta, dimenticano che AMD ha la partnership con il team del motore fisico Havok (ora di Intel). Havok "fino a ieri" era interamente basato su CPU e con risultati sorprendenti, oggi si sta integrando anche con le GPU per risultati ancora migliori. Nessuno ha bisogno di PhysX, tranne chi lo promuove.
    • Sgabbio scrive:
      Re: Memoria corta? Havok!
      Havock è famoso per i suoi spettacolari bug :D Comunque PhysX è molto usato...
      • Cascode scrive:
        Re: Memoria corta? Havok!
        Davvero H A V O K ha dei bug? Anche tu, vedo. PhysX sarà usato, certo, ma Havok lo è assai di più. Havok è indipendente dal produttore del chip video, diversamente da PhysX, non trovi sia un vantaggio per chi compra i giochi? Per questo i giochi con Havok sono assai più numerosi di quelli con PhysX.A me PhysX non dispiace, non sopporto l'uso che vorrebbe farne (e fa) Nvidia sopratutto quando m'impedisce di usarlo se ho oltre alla Nvidia anche una ATI o AMD che dir si voglia.
        • Sgabbio scrive:
          Re: Memoria corta? Havok!
          Havock è noto per i bug spettacolari su alcuni giochi, ad esembio in oblivion vedevi in certe circostanze, gli oggetti che si animavano e impazzivano :D
          • mura scrive:
            Re: Memoria corta? Havok!
            - Scritto da: Sgabbio
            Havock è noto per i bug spettacolari su alcuni
            giochi, ad esembio in oblivion vedevi in certe
            circostanze, gli oggetti che si animavano e
            impazzivano
            :DSi ok ma oblivion non è che sia proprio uscito ieri come gioco per cui ci sta che nel frattempo le cose siano migliorate non trovi ?
          • fox82i scrive:
            Re: Memoria corta? Havok!
            Avranno corretto un po' di bug, non trovi?
          • Wolf01 scrive:
            Re: Memoria corta? Havok!
            Si spera... Havok è del 2000 e magari appena uscito qualche pecca ci stava, Oblivion (2006) soffriva degli stessi bug di Robot Arena 2 che è del 2003, 3 anni con sempre gli stessi bug mi pare giusto un po' tantino...E qualche bugghetto si fa sentire anche in Starcraft 2, ma già molto meno (quando le unità si scontrano e si spintonano), forse perchè non se ne fa un uso veramente massiccio.
        • James Kirk scrive:
          Re: Memoria corta? Havok!
          La verità è che non c'è ancora uno standard affermato come motore per la fisica.E' vero che Nvidia fa una notevole pressione sugli sviluppatori per l'uso di Phisyx ma il fatto che i giochi oggi siano sviluppati per console e poi (forse) portati su PC ha fatto si che ognuno sviluppasse motori propri, per lo più basati su CPU.
  • Nedanfor non loggato scrive:
    Speriamo
    che PhysX possa integrarsi con Bullet e che possa essere Open... Se tutto finirà nelle OpenCL tanto meglio, più gli sviluppatori sono svincolati dalle piattaforme meglio è.
  • rb1205 scrive:
    2 generazioni indietro!
    Questo probabilmente riflette il fatto che le GPU ATI sono un paio di generazioni dietro alle nostre Questa probabilmente è la cosa più ridicola che ho letto oggi :D
    • nome e cognome scrive:
      Re: 2 generazioni indietro!
      Io ho fatto fatica a trattenermi dalle risate..
      • krane scrive:
        Re: 2 generazioni indietro!
        - Scritto da: nome e cognome
        Io ho fatto fatica a trattenermi dalle risate..Forse con 2 generazioni indietro intendeva che sono giovani e scattanti (rotfl)
        • lordream scrive:
          Re: 2 generazioni indietro!
          gli devo dare atto che i driver li fa bene la nvidia
          • DarkSchneider scrive:
            Re: 2 generazioni indietro!
            - Scritto da: lordream
            gli devo dare atto che i driver li fa bene la
            nvidiaQuali, quelli che si "dimenticano" di far partire la ventola e bruciano la GPU?O quelli per notebook che su Vista/7 hanno problemi di refresh e flickerano costringendoti (su 7) ad usare vecchi driver moddati?Ultimamente anche nVidia non mostra più la stessa qualità nei driver.Ati invece sembra essersi rimboccata le maniche, ed ha migliorato notevolmente il supporto.
          • r1348 scrive:
            Re: 2 generazioni indietro!
            La mia esperienza dice esattamente il contrario...
    • DarkSchneider scrive:
      Re: 2 generazioni indietro!
      Effettivamente le dichiarazioni di nVidia ultimamente sono da cabaret.Immagino siano ancora intossicati dal fumo delle saldature malriuscite di quel sample di fermi fasullo.A me risulta che siano le nVidia ad avere 6 mesi di ritardo.Ottime schede come potenza bruta, se solo non scaldassero come un reattore nucleare e non richiedessero altrettanta enrgia elettrica...Ati ha scelto un'altra strada, un progetto più semplice, più economico e più gestibile con risultati ottimi.
    • Andrea P scrive:
      Re: 2 generazioni indietro!
      Beh, dal punto di vista delle funzionalita' ha ragione.Le schede nvidia supportano il GPGPU dalla serie 8, cioe' da 3-4 anni ormai. E' difficile aggiungere funzionalita' ad una scheda del genere, perche' una scheda che fa girare CUDA/OpenCL puo' fare qualsiasi cosa.Le schede ATI hanno raggiunto quel livello di programmabilita' solo di recente, dato OpenCL ha cominciato a girare su schede ATI da fine 2009, con un implementazione dei driver e kit di sviluppo tirate per i capelli.Poi le prestazioni su qualche giochino del cavolo sono un'altra cosa, ma non mi fiderei ad investire su ATI se dovessi metter su un cluster di GPU su cui fare calcolo.
      • rb1205 scrive:
        Re: 2 generazioni indietro!
        Dimentichi le prestazioni per watt di consumoDimentichi le prestazioni su prezzoDimentichi le temperature 15° inferiori al limite di giunzione con Tamb=25°Dimentichi la dimensione mastodontica del core che comporta bassi yeld e difficoltà a scendere di prezzo nel tempoDimentichi che pur raggiungendo le temperature di cui prima, il dissipatore a full load raggiunge un rumore superiore a un crossfire delle schede competitor.Ma per il resto ottime schede :D
        • Andrea P scrive:
          Re: 2 generazioni indietro!
          Dimentichi il fatto che le prestazioni delle schede ATI in ambito GPGPU SERIO negli ultimi due anni sono state..ehm.....zero.Difficile apprezzare le migliori performace per watt/prezzo su applicazioni che..beh, non possono proprio girare.Perche' credi che i core nvidia abbia cosi' tanti transistor in piu' ???Il ferro necessario a far funzionare i circuiti di un proXXXXXre general purpose (con supporto per debugging) e' superiore a quello di un'architettura piu' "leggera" come quella ATI.Per i giochi hai ragione.
          • rb1205 scrive:
            Re: 2 generazioni indietro!
            Scusa, ma ti sbagli. Il GPGPU ATI è, al pari di quello nvidia, ben rappresentato in ambito supercomputer, e uno basato su HD4870 (quindi schede "consumer", per giochi) è al 5° posto nella top500.Sono d'accordo che manchino programmi GPGPU compatibili con le OpenCL o con Stream, e quindi con ATI, nell'ambito workstation e consumer. Ma questo non ha proprio nulla a che fare con l'hardware: deriva semplicemente dal fatto che Nvidia ha ben sviluppato e ben commercializzato (soprattutto quest'ultima) il suo framework proprietario (stiamo quindi parlando di software).Che l'uso di una GPU per grafica o per GPGPU sia differente dal punto di vista hardware è una assurdità bella e buona. L'impiego degli stream proXXXXXrs (o cuda cores, se preferisci chiamarli così) e della RAM è perfettamente identico, alla GPU non cambia nulla di nulla, e dovrebbe essere chiaro se pensi a cosa significhi l'acronimo GPGPU. Probabilmente dovresti documentarti meglio.Infine, che diavolo c'entra il ferro con una scheda video? E con il debugging sopratutto? Scusa la franchezza, ma a me pare tanto che tu non abbia ben chiaro di cosa stai parlando.
          • AMEN scrive:
            Re: 2 generazioni indietro!
            - Scritto da: Andrea P
            Dimentichi il fatto che le prestazioni delle
            schede ATI in ambito GPGPU SERIO negli ultimi due
            anni sono
            state..ehm.....zero.Dal sito di Milkyway@home"As such, MilkyWay@Homes volunteer computing system is an excellenttestbed for measuring the potential of large scale distributed GPGPUcomputing across a large number of heterogeneous GPUs. This workdiscusses the implementation and optimization of the MilkyWay@Homeclient application for both Nvidia and ATI GPUs. A 17 times speedupwas achieved for double-precision calculations on a Nvidia GeForce GTX285 card, and a 109 times speedup for double-precision calculations onan ATI HD5870 card, compared to the CPU version running on onecore of a 3.0GHz AMD Phenom(tm)II X4 940. Using single-precisioncalculations was also evaluated which further increased performance 6.2times for ATI card, and 7.8 times on the Nvidia card but with some lossof accuracy"
      • 00101010 scrive:
        Re: 2 generazioni indietro!
        - Scritto da: Andrea P
        Beh, dal punto di vista delle funzionalita' ha
        ragione.?!?!?!?
        Le schede nvidia supportano il GPGPU dalla serie
        8, cioe' da 3-4 anni ormai. E' difficile
        aggiungere funzionalita' ad una scheda del
        genere, perche' una scheda che fa girare
        CUDA/OpenCL puo' fare qualsiasi
        cosa.
        Le schede ATI hanno raggiunto quel livello di
        programmabilita' solo di recente, dato OpenCL ha
        cominciato a girare su schede ATI da fine 2009,
        con un implementazione dei driver e kit di
        sviluppo tirate per i
        capelli.Alt! Nvidia supporta CUDA (da lei creato) dalla serie 8000; mentre OpenCL si è aggiunta solo di recente; ATI di par suo supporta Stream (il suo CUDA per intenderci) dallo stesso periodo (radeon X series)
        Poi le prestazioni su qualche giochino del cavolo
        sono un'altra cosa, ma non mi fiderei ad
        investire su ATI se dovessi metter su un cluster
        di GPU su cui fare
        calcolo.
        • Andrea P scrive:
          Re: 2 generazioni indietro!
          Appunto NVIDIA supporta CUDA da 3-4 anni, OpenCL e' stato standardizzato nel dicembre 2008, NVIDIA ha avuto la sua implementazione ad aprile 2009.Stream ?? Stai scherzando ?? Ma l'hai mai visto ??Senza contare che il software di sviluppo e' molto acerbo e i driver OpenCL sono (al momento) buggati, senza parlare dei driver Linux...Mi dispiace ma al momento su GPGPU le schede ATI sono troppo indietro.
          • 00101010 scrive:
            Re: 2 generazioni indietro!
            - Scritto da: Andrea P
            Appunto NVIDIA supporta CUDA da 3-4 anni, OpenCL
            e' stato standardizzato nel dicembre 2008, NVIDIA
            ha avuto la sua implementazione ad aprile
            2009.Scusa la domanda, ma appunto cosa?!? Tu nel post precedente dici che Nvidia al contrario di ATI, che vi è arrivata solo di recente con OpenCL, supporta il GPGPU da qualche anno; quando è vero invece che la prima generazione di schede video supportanti il GPGPU Nvidia (G86) e ATI (R580) sono coetanee e rilasciate entrambe nel 2006.
            Stream ?? Stai scherzando ?? Ma l'hai mai visto ??Si. E devo dire che Brook+ non è molto più astruso dei binding CUDA per C++; certo essendo un linguaggio dedicato necessita di più tempo di una libreria, solo offre una migliore ottimizzazione in development-time
            Senza contare che il software di sviluppo e'
            molto acerbo e i driver OpenCL sono (al momento)
            buggati, senza parlare dei driver
            Linux...Ma che misturotto stai facendo?!?!?Mi dispiace dirtelo ma mischiare software di sviluppo, drivers win32/64 e drivers linux non è un buon modo per fare un Martini.Ora per ciò che concerne il supporto drivers, vorrei far notare che OpenCL è nato sotto Jobs e chi è il fornitore di chipset video di Jobs .. e dunque chi è che ha avuto modo di vedere e lavorare sulla specifica prima che venisse vagliata e ufficializzata dal khronos Group?
            Mi dispiace ma al momento su GPGPU le schede ATI
            sono troppo
            indietro.
          • attonito scrive:
            Re: 2 generazioni indietro!
            - Scritto da: Andrea P
            Appunto NVIDIA supporta CUDA da 3-4 anni, OpenCL
            e' stato standardizzato nel dicembre 2008, NVIDIA
            ha avuto la sua implementazione ad aprile
            2009.

            Stream ?? Stai scherzando ?? Ma l'hai mai visto ??Io si, e tu? passare da Stream 1.4 (detto "la XXXXX") a Stream 2.01 (detta "addesso si che ragioniamo") le prestazioni sono triplicate, si hai capito bene, TRI-PLI-CA-TE. ATI ha messo la freccia e ha superato NVIDIA, fine della storia.E non sto parlado di giochi o altro, parlo di applicazioni di calcolo massivo su GPU.

            Senza contare che il software di sviluppo e'
            molto acerbo e i driver OpenCL sono (al momento)
            buggati, senza parlare dei driver
            Linux...vero fino a 2 mesi fa. ora non piu.I driver 9.12 , 10.1 e 10.2 hanno dato problemi, vero, ma stanno (lentamente) migliorando. i 10.4 danno un altro paio di punti percentiali di miglioramnto.
            Mi dispiace ma al momento su GPGPU le schede ATI
            sono troppo indietro.Tutto vero, tutto condivisibile, anche io dicevo le stesse cose.... fino a 2 mesi fa. La musica e' cambiata.Fino a novembre 2009 ero "VERDE", usavo schede NVIDIA per il calcolo su GPU, il pasticciaccio brutto di Fermi mi ha fatto aspettare fino ad ora.... 2 mesi fa ho comprato ATI: a parita' di costo hardware NVIDIA-ATI, con la scheda ati ho triplicato le proestazioni (grazie a Stream 2.01).ciao cuda ciao nvidia, speriamo steam migliori sempre piu' e sempre piu' applicazioni passino su opencl.
Chiudi i commenti