Google, l'ultimo scatto di Picasa

Lo storico servizio di gestione delle immagini si prepara a cedere il passo a Google Foto, declinato su desktop e mobile, con le sue funzioni più avanzate

Roma – Con l’avvento di Google Foto, presentato nel corso della conferenza per sviluppatori Google I/O del 2015 e progressivamente arricchito di funzioni , la sovrapposizione con altri servizi di Mountain View è evidentemente diventata ingombrante: ha già sostituito il versante fotografico del social network Google + e ora si prepara a soppiantare anche Picasa, la storica piattaforma di condivisione della Grande G.

Picasa

Google ha annunciato che, dopo molte valutazioni, ha deciso di “ritirare Picasa nei prossimi mesi per concentrarsi interamente su un singolo servizio”, così da “creare una esperienza molto migliore” per mezzo di Google Foto, che “offre più funzionalità su desktop e mobile”.

Mountain View ricorda agli utenti di Picasa che basta accedere a Google Foto per ritrovare tutti i propri scatti: l’interfaccia web del più recente servizio consentirà loro di continuare ad operare con i propri ricordi e offrirà loro funzioni che Picasa non ha mai implementato. Per coloro invece che fossero affezionati a Picasa, e non volessero rinunciare ai contenuti come i tag e i commenti che la transizione a Google Foto non permette di conservare, Mountain View, a partire da maggio, metterà a disposizione un servizio non meglio precisato che trasformerà gli archivi Picasa in album che potranno essere consultati e impiegati per scaricare le immagini o cancellarle, ma che non potranno essere popolati di nuovi contenuti.

L’applicazione desktop di Picasa, invece, ha una data di scadenza più ravvicinata: potrà essere scaricata fino al 15 marzo 2016 ma dopo quella data, pur continuando a funzionare, non verrà più aggiornata. Invero, gli aggiornamenti apportati negli ultimi anni sono stati radi e di natura minore, a riguardare questioni di sicurezza e bug.

Google dirama un avviso anche per gli sviluppatori : l’API Picasa Web Albums Data smetterà di supportare alcune funzioni, fra cui Flash, la modifica delle immagini, la gestione di tag, commenti e contatti correlati alle immagini.

Gaia Bottà

La tua email sarà utilizzata per comunicarti se qualcuno risponde al tuo commento e non sarà pubblicato. Dichiari di avere preso visione e di accettare quanto previsto dalla informativa privacy

  • rudy scrive:
    perche questa strada?
    cloud e sistemi globalmente paralleli verso intelligenza locale.dovendo fare una scelta di cuore non credo ci siano dubbi.non sra che il controllo monopolistico che sta crescendo sta pilotando verso questa direzione per interesse appunto privato piu che per effettivo migliore soluzione tecnologica?
  • xvfcx scrive:
    Intel rischia
    Intel ha sempre spinto sull'acceleratore dei nanometri e questo l'ha salvata quando in commercio c'erano chip più efficient come design, ora che AMD sta con l'acqua alla gola e IBM pensa solo ai server Intel sta tirando il fiato. Ma così gli altri possono recuperare terreno. Già la generazione 2016 dei vari ARM potrebbe essere messa su qualcosa di più di un Raspberry PI o di un Odroid. In un paio di generazioni potrebbere iniziare a dargli fastidio nel settore PC.
    • Etype scrive:
      Re: Intel rischia
      Non credo proprio, anche perché di questo passo ARM sarà la prima ad essere colpita, quindi è un problema che riguarderà anche lei.
  • prova123 scrive:
    concentrata su ...
    "cloud, gadget mobile e IoT" allora la cosa migliore che possono fare è di laciare la sabbia lì dove si trova ... è molto più utile! :D
    • ces scrive:
      Re: concentrata su ...
      - Scritto da: prova123
      <i
      "cloud, gadget mobile e IoT" </i

      allora la cosa migliore che possono fare è di
      laciare la sabbia lì dove si trova ... è molto
      più utile!
      :DLa fuffa è molto meno costosa e più redditizia 8)
    • rockroll scrive:
      Re: concentrata su ...
      - Scritto da: prova123
      "cloud, gadget mobile e IoT"
      allora la cosa migliore che possono fare è di
      laciare la sabbia lì dove si trova ... è molto
      più utile!
      :DCondivido: se i presupposti sono questi smetterò di interessarmi di informatica (anzi, di I nformatica), non voglo assistere a questa involuzione.
      • Mario scrive:
        Re: concentrata su ...
        - Scritto da: rockroll
        - Scritto da: prova123

        <i
        "cloud, gadget mobile e IoT" </i


        allora la cosa migliore che possono fare è di

        laciare la sabbia lì dove si trova ... è molto

        più utile!

        :D

        Condivido: se i presupposti sono questi smetterò
        di interessarmi di informatica (anzi, di
        <b
        I </b
        nformatica), non voglo assistere a questa
        involuzione.
        </u
        L'informatica evolve e questa è la direzione, client mobile e server. Chi si ferma è perduto.
        • rudy scrive:
          Re: concentrata su ...
          quersta e' la direzione che il grande fratello sta prendendo. assolutamente vero
        • il fuddaro scrive:
          Re: concentrata su ...
          - Scritto da: Mario
          - Scritto da: rockroll

          - Scritto da: prova123


          <i
          "cloud, gadget mobile e IoT"
          </i




          allora la cosa migliore che possono
          fare è
          di


          laciare la sabbia lì dove si trova ...
          è
          molto


          più utile!


          :D



          Condivido: se i presupposti sono questi
          smetterò

          di interessarmi di informatica (anzi, di

          <b
          I </b
          nformatica), non
          voglo assistere a
          questa

          involuzione.

          </u


          L'informatica evolve e questa è la direzione,
          client mobile e server.

          Chi si ferma è perduto.Come se voi con facebukk vi siete mai evoluti! Ha dimenticavo si, voi siete gente all'avanguardia. Come no.
  • Etype scrive:
    Moore
    Oggi si parla di un limite quando saremmo arrivati verso i 7nm , anche se TSMC ha dichiarato che arriverà verso i 7-8 nm vero la fine del 2016-2017 e 5nm verso il 2020, oltre quello a meno di una tecnologia rivoluzionaria non si andrà. Intel e AMD per esempio hanno detto che si spingeranno molto sull'efficienza energetica, quindi anche se non usciranno CPU dalla forza bruta mostruosa almeno caleranno i consumi, per il resto ci si spingerà verso una maggiore efficienza computazionale ,un più alto IPC e altre cosette di contorno.Poi comunque per quanto riguarda il computer completo non è l'unica via, ci sono molti miglioramenti anche per SSD, RAM, nuove connessione,ecc.Da un lato non è che è una cattiva notizia, quantomeno arrivati a quel punto magari si realizzeranno programmi più efficienti come avveniva una volta.
    • iRoby scrive:
      Re: Moore
      Speriamo non salgano ancora di frequenza col WiFi.Nessuno sente acufeni nelle orecchie quando vive in città e ha una decina di access point nelle vicinanze che gli entrano in casa?Io quando spengo il wifi del mio router sento ronzare le orecchie circa il 40% in meno.Nessuno si è mai accorto?Non son solo io perché diversi amici ed amiche hanno le stesse sensazioni specie da quando si va a 2,5 e 5Ghz e i +150Mbit/s
      • Sg@bbio scrive:
        Re: Moore
        Come le scie chimiche vegane ?
      • Hop scrive:
        Re: Moore
        - Scritto da: iRoby
        Speriamo non salgano ancora di frequenza col WiFi.

        Nessuno sente acufeni nelle orecchie quando vive
        in città e ha una decina di access point nelle
        vicinanze che gli entrano in
        casa?I pipistrelli? :D
      • Etype scrive:
        Re: Moore
        - Scritto da: iRoby
        Speriamo non salgano ancora di frequenza col WiFi.Invece credo proprio di si.
        Nessuno sente acufeni nelle orecchie quando vive
        in città e ha una decina di access point nelle
        vicinanze che gli entrano in
        casa?Di sicuro non è sano
        Io quando spengo il wifi del mio router sento
        ronzare le orecchie circa il 40% in
        meno.

        Nessuno si è mai accorto?
        Non son solo io perché diversi amici ed amiche
        hanno le stesse sensazioni specie da quando si va
        a 2,5 e 5Ghz e i
        +150Mbit/sSo che ci sono persone più sensibili di altre, per esempio mi ricordo di una signora che al tempo degli schermi CRT aveva seri problemi...
        • Joe Tornado scrive:
          Re: Moore
          Refresh 60 Hz ?
          • Etype scrive:
            Re: Moore
            Non era quello, se non ricordo male era dei Paesi nordici e lavorava in ufficio, stava male fisicamente
          • Prozac scrive:
            Re: Moore
            - Scritto da: Etype
            Non era quello, se non ricordo male era dei Paesi
            nordici e lavorava in ufficio, stava male
            fisicamenteAh sì, pure Charles "Chuck" McGill (il fratello di Saul Goodman) ha lo stesso problema.
          • Etype scrive:
            Re: Moore
            La signora che dico io aveva forti emicranee, sensi di nausea e se non ricordo male anche degli sfoghi sulla pelle, per poter lavorare gli avevano creato una postazione particolare. Questo era un bel po' di anni fa quando gli LCD erano agli inizi della loro diffusione.
          • Prozac scrive:
            Re: Moore
            - Scritto da: Etype
            La signora che dico io aveva forti emicranee,
            sensi di nausea e se non ricordo male anche degli
            sfoghi sulla pelle, per poter lavorare gli
            avevano creato una postazione particolare. Questo
            era un bel po' di anni fa quando gli LCD erano
            agli inizi della loro
            diffusione.Chuck McGill, invece, non poteva proprio uscire di casa...Viveva in questa casa al buio, senza energia elettrica (utilizzava generatori a gasolio). Se volevi andarlo a trovare dovevi lasciare ogni oggetto elettronico all'interno della cassetta delle lettere sul vialetto di casa...
          • Etype scrive:
            Re: Moore
            Ma era una condizione puramente psicologica oppure stava male anche fisicamente ?Comunque ci sono casi rari, ricordo anche di 2 bambini negli USA che soffrivano di ipersensibilità alla luce solare, se volevano giocare fuori potevano farlo solo con tuta e casco simili a quelli che usa la NASA per lo spazio.Altre persone ancora hanno una bassa tolleranza verso le illuminazioni forti.Come ci sono certe persone che non possono videogiocare a certi titoli con sequenze molto veloci perché soffrono di epilessia.sono casi rari ma esistono.
          • Prozac scrive:
            Re: Moore
            - Scritto da: Etype
            Ma era una condizione puramente psicologica
            oppure stava male anche fisicamente
            ?Lui stava male fisicamente. Una ipersensibilità alle onde elettromagnetiche credo. Non saprei dire se causata da problemi psicologici.Pensa che per uscire in giardino, non so, a prendere il giornale, si metteva addosso una coperta termica (di quelle "argentate").
          • pippuz scrive:
            Re: Moore
            Il mio capo è più sensibile della norma alle onde elettromagnetiche e non per paturnie sue; cuffie bluetooth e wifi, in particolare, per lui sono un incubo. Mezzi gadget tecnologici li ha letteralmente svenduti in ufficio perché lui non li avrebbe più utilizzati, per le emicranie che gli causano.
          • Funz scrive:
            Re: Moore
            - Scritto da: pippuz
            Il mio capo è più sensibile della norma alle onde
            elettromagnetiche e non per paturnie sue; cuffie
            bluetooth e wifi, in particolare, per lui sono un
            incubo. Mezzi gadget tecnologici li ha
            letteralmente svenduti in ufficio perché lui non
            li avrebbe più utilizzati, per le emicranie che
            gli
            causano.Ci credo, ma il dubbio è se queste persone lamentino problemi fisici reali legati alle onde EM (mai provati scientificamente) oppure se siano problemi psicosomatici (molto più probabile).
          • ... scrive:
            Re: Moore
            - Scritto da: Etype
            Ma era una condizione puramente psicologica
            oppure stava male anche fisicamente
            ?

            Comunque ci sono casi rari, ricordo anche di 2
            bambini negli USA che soffrivano di
            ipersensibilità alla luce solare, se volevano
            giocare fuori potevano farlo solo con tuta e
            casco simili a quelli che usa la NASA per lo
            spazio.

            Altre persone ancora hanno una bassa tolleranza
            verso le illuminazioni
            forti.

            Come ci sono certe persone che non possono
            videogiocare a certi titoli con sequenze molto
            veloci perché soffrono di
            epilessia.

            sono casi rari ma esistono.la Natura risolve il problema con l'eliminazione fisica del soggetto per fare in modo che non trasmetta tale disturbo alla generazione successiva.
          • Joe Tornado scrive:
            Re: Moore
            Generalmente, però, il problema dei CRT era quello ... in pochi sapevano che a 85 Hz quei monitor diventavano "immobili" quasi come quadri !
          • Etype scrive:
            Re: Moore
            - Scritto da: Joe Tornado
            Generalmente, però, il problema dei CRT era
            quello ... in pochi sapevano che a 85 Hz quei
            monitor diventavano "immobili" quasi come quadri
            !Io ce l'avevo sui 60 Hz e quando per delle prove tornavo sotto quella frequenza mi accorgevo che c'era qualcosa di "strano" ed era fastidioso.Comunque quello era il problema minore facilmente risolvibile come hai detto tu aumentando la frequenza di refresh, il problema era dovuto dalle radiazioni che ti beccavi dalla tecnologia CRT che erano minori negli ultimi prodotti prima di essere soppiantati dagli LCD, se ti ricordi negli uffici qualcuno usava anche delle protezioni da applicare davanti allo schermo.
          • Joe Tornado scrive:
            Re: Moore
            Si si, è vero ... roba che è scomparsa intorno alla metà degli anni '90.
      • prova123 scrive:
        Re: Moore
        è estremamente più probabile che il rumore nel range dell'udibile che senti sia dovuto ai regolatori di tensione switching.
      • Fenomeno scrive:
        Re: Moore
        - Scritto da: iRoby
        a 2,5 e 5Ghz e i
        +150Mbit/sGenerazione di fenomeni!Gente come voi va assunta dai fabbricanti di apparecchiature HI-FI in confronto i pipistrelli sono sordi loro arrivano solo a 100 MHZ!
      • il fuddaro scrive:
        Re: Moore
        - Scritto da: iRoby
        Speriamo non salgano ancora di frequenza col WiFi.

        Nessuno sente acufeni nelle orecchie quando vive
        in città e ha una decina di access point nelle
        vicinanze che gli entrano in
        casa?

        Io quando spengo il wifi del mio router sento
        ronzare le orecchie circa il 40% in
        meno.

        Nessuno si è mai accorto?
        Non son solo io perché diversi amici ed amiche
        hanno le stesse sensazioni specie da quando si va
        a 2,5 e 5Ghz e i
        +150Mbit/sE da molto tempo che succede già questo. Le orecchie sono l'inizio, aspetta che inizia a pizzicare la gola o tonsille che siano.Poi fatti risentire.
    • rockroll scrive:
      Re: Moore
      Da un lato non è che è una cattiva notizia, quantomeno arrivati a quel punto magari si realizzeranno programmi più efficienti come avveniva una volta. Quotissima.Sarò un vecchio e pedante purista della programmazione, ma non sopporto lo scempio di risorse assurdo al quale siamo arrivati. Anche se le risorse abbondano, finchè abbondano, non vedo perchè produrre fuffa ad un tanto al chilo, per lo meno come SW di base, sapendo che si tratta di codice che deve girare al meglio possibile perchè usato ripetitivamente da qualche milardo di persone per varie ore al giorno!
      • Etype scrive:
        Re: Moore
        Già, oggi si tende prima a fare qualche bloatware inefficiente e poi a metterci l'hardware pompato sotto per sostenerlo.
      • Izio01 scrive:
        Re: Moore
        - Scritto da: rockroll
        <i
        Da un lato non è che è una cattiva notizia,
        quantomeno arrivati a quel punto magari si
        realizzeranno programmi più efficienti come
        avveniva una volta. </i



        Quotissima.

        Sarò un vecchio e pedante purista della
        programmazione, ma non sopporto lo scempio di
        risorse assurdo al quale siamo arrivati.

        Anche se le risorse abbondano, finchè abbondano,
        non vedo perchè produrre fuffa ad un tanto al
        chilo, per lo meno come SW di base, sapendo che
        si tratta di codice che deve girare al meglio
        possibile perchè usato ripetitivamente da qualche
        milardo di persone per varie ore al giorno!Io invece mi sono convertito. :)Un software modulare è incredibilmente più facile da aggiornare e mantenere, rispetto ad uno monolitico e fortemente accoppiato. Un'architettura ad oggetti ben studiata può realmente migliorare la stabilità e ridurre i tempi di modifica in maniera significativa. Utilizzare linguaggi managed, che utilizzano librerie che si appoggiano alle librerie native, che a loro volta mascherano l'hardware sottostante, probabilmente a più livelli, è qualcosa di oscenamente inefficiente. Eppure funziona bene e mi permette di scrivere programmi molto complessi senza dover inventare ogni volta la ruota.Ai tempi dello Spectrum, geni della programmazione riuscivano a far stare interi mondi all'interno di 48K. Oggi un gioco richiede magari 48 Gb, un milione di volte tanto, ma è impossibile paragonare la complessità di un gioco come Ant Attack, che pure è un capolavoro, con quella di un gioco moderno. I computer si sono evoluti, l'uomo no. MOLTO APPROSSIMATIVAMENTE, direi che il costo in ore uomo della gestione di un progetto vada al quadrato della sua complessità. Se si dovesse scrivere tutto da zero, parlando direttamente con l'hardware, come ai tempi dello Spectrum, non potremmo avere i giochi di oggi, ma nemmeno le incredibili architetture di rete che servono tutto il mondo in tempo reale.Spezzare la complessità in tanti livelli discreti ed autonomi ha ridotto enormemente i costi finali, e le prestazioni sono rimaste ottime grazie all'evoluzione dell'hardware. Quando l'hardware smetterà di evolversi, vedremo cosa succederà, ma dubito che si possa tornare indietro, il software costerebbe semplicemente troppo.
  • rico scrive:
    Balle
    La legge di Moore non è più valida solo per chi vede l'evoluzione come un progresso continuo.In realtà l'evoluzione, sia biologica che tecnologica, procede a salti: scommettiamo che il chip quantistico oppure ottico zittirà quelli che dicono "Non c'è più margine per la potenza".Che poi alcuni software "moderni" girano bene su PC di venti o trent'anni fa, nessun dubbio: rivolgersi a Linux, per questo.Inoltre puoi avere il 4G, 5G o tutta connesione che vuoi, se il processore non regge avrai comunque un dispositivo LENTO.
    • iRoby scrive:
      Re: Balle
      Progresso, ma anche periodi di "regresso".Amiga fu progresso, coprocessori dedicati che sgravavano la CPU da molti lavori, lasciandola libera del solo compito di calcolo.Col PC si tornò a case vuoti da riempire con schede collegate da un bus dati connesso direttamente alla CPU. Niente DMA o comunque opzione molto castrata da parte dei coprocessori sugli slot.Niente software che li sfruttava a dovere.Oggi non è cambiato tantissimo... E possiamo anche sprecare le risorse.Si sta abbandonando la potenza pura per il risparmio energetico.Io sono d'accordo, e avere la potenza per fare tutto, in computer di 13x13cm come il NUC e spesso anche senza parti meccaniche, è un punto a favore della miniaturizzazione e l'efficienza.
      • Sg@bbio scrive:
        Re: Balle
        Si dovrebbe lavorare molto sulle schede video, che sono oggi dei mostri di dimensioni e di calore.
        • rockroll scrive:
          Re: Balle
          - Scritto da: Sg@bbio
          Si dovrebbe lavorare molto sulle schede video,
          che sono oggi dei mostri di dimensioni e di
          calore.A che scopo, per giocare? Le SK video discrete sono diventate dei mostri inutili, ne hai d'avanzo di un'integrata se non giochi, basta che sia stutturata per servire le elaborazioni parallele eventualmente richieste dalla CPU.
          • mmorselli scrive:
            Re: Balle
            - Scritto da: rockroll
            - Scritto da: Sg@bbio

            Si dovrebbe lavorare molto sulle schede video,

            che sono oggi dei mostri di dimensioni e di

            calore.

            A che scopo, per giocare? Sì, più o meno, serviranno schede video 10 volte più potenti di quelle attuali solo per portare la realtà virtuale ai livelli a cui oggi siamo abituati con i videogiochi, che sono realistici ma nemmeno troppo. La VR sarà centrale nei prossimi anni (anche perché qualcosa bisogna vendere... Telefonini? Tablet? Tutta roba al capolinea)
          • Etype scrive:
            Re: Balle
            Specchietti per allodole, le schede video che ci sono oggi sono già abbastanza potenti, meglio puntare su linguaggi di programmazione più efficienti che schede video che consumano più di un intero PC.
          • Izio01 scrive:
            Re: Balle
            - Scritto da: Etype
            Specchietti per allodole, le schede video che ci
            sono oggi sono già abbastanza potenti, meglio
            puntare su linguaggi di programmazione più
            efficienti che schede video che consumano più di
            un intero PC.E chi spenderebbe 300 euro per un singolo videogioco scritto interamente in assembly? Soprattutto se all'atto pratico saltasse fuori che i colli di bottiglia sono gli stessi, perché i punti critici sono già ottimizzati oggi.Io vedo dei miglioramenti strepitosi in tempi brevi. Ho ripreso in mano Dishonored per giocare con i DLC che ho acquistato, e ho scoperto che la grafica sembra roba di dieci anni fa, se lo confronto con Far Cry 4.Certo, le schede grafiche di oggi vanno bene per gestire i videogiochi di oggi. Con le prossime generazioni si potrà gestire roba ancora più spettacolare.Necessario? No, si parla di giochi. Peccato che l'aggettivo "superfluo" si applichi anche al 90% di ciò che facciamo o possediamo, quindi io investo con gioia in hardware videoludico perché ciò che ne traggo mi ripaga ampiamente della spesa. Se per altri non è così, faranno a meno di aggiornare il loro sistema, che problema c'è? È il bello di poter scegliere :)
          • Etype scrive:
            Re: Balle
            - Scritto da: Izio01
            E chi spenderebbe 300 euro per un singolo
            videogioco scritto interamente in assembly?Chi ha detto che devi prendere l'assembly ?Mi pare che OpenGL (o una sua alternativa futura) sia più efficiente di DX ,Ms è uscita dal letargo solo dopo che AMD era uscita con Mantle.Quindi si possono avere miglioramenti senza aumenti spaventosi di hardware, l'importante è scegliere una strada che ti darà i maggiori benefici possibili.
            Soprattutto se all'atto pratico saltasse fuori
            che i colli di bottiglia sono gli stessi, perché
            i punti critici sono già ottimizzati
            oggi.Non credo, puoi sempre implementare tecnologie software più performanti e più a stretto contatto con l'hardware che hai già in possesso.
            Certo, le schede grafiche di oggi vanno bene per
            gestire i videogiochi di oggi. Con le prossime
            generazioni si potrà gestire roba ancora più
            spettacolare.Siamo già sullo spettacolare,se ti adagi sul fatto che tanto puoi contare su una GPU mostruosa creerai una softwate bloatware ed inefficiente.
            Necessario? No, si parla di giochi. Peccato che
            l'aggettivo "superfluo" si applichi anche al 90%
            di ciò che facciamo o possediamo, quindi io
            investo con gioia in hardware videoludico perché
            ciò che ne traggo mi ripaga ampiamente della
            spesa.Si ma non farti diventare obsoleta la tua GPU in breve tempo.
            Se per altri non è così, faranno a meno di
            aggiornare il loro sistema, che problema c'è?
            È il bello di poter scegliere
            :)Il problema è che dovrai gettare periodicamente la tua GPU ed il resto perché i suddetti giochi richiedono sempre più potenza hardware, inquinerai anche di più. Il software invece lo puoi modificare tantissime volte senza produrre sprechi.
          • Izio01 scrive:
            Re: Balle
            - Scritto da: Etype
            - Scritto da: Izio01


            E chi spenderebbe 300 euro per un singolo

            videogioco scritto interamente in assembly?

            Chi ha detto che devi prendere l'assembly ?

            Mi pare che OpenGL (o una sua alternativa futura)
            sia più efficiente di DX ,Ms è uscita dal letargo
            solo dopo che AMD era uscita con Mantle.
            Quindi si possono avere miglioramenti senza
            aumenti spaventosi di hardware, l'importante è
            scegliere una strada che ti darà i maggiori
            benefici possibili.
            Tutto molto ipotetico. Soprattutto, occorre capire se questi presunti miglioramenti possano essere del 50%, del 5% o dello 0,5%.

            Soprattutto se all'atto pratico saltasse
            fuori

            che i colli di bottiglia sono gli stessi,
            perché

            i punti critici sono già ottimizzati

            oggi.

            Non credo, puoi sempre implementare tecnologie
            software più performanti e più a stretto contatto
            con l'hardware che hai già in possesso.
            Più a stretto contatto con l'hardware vai, più costa sviluppare il software. In assenza di uno strato di astrazione e dovendo interfacciare direttamente ogni possibile scheda grafica che vuoi gestire, il costo diventa proibitivo.Scendere più a basso livello di DirectX con API semi-native ma pur sempre flessibili, tipo Mantle, è invece una cosa che mi ispira. Tanti anni fa, i giochi che usavano Glide andavano nettamente meglio di quelli che usavano Direct3D.

            Certo, le schede grafiche di oggi vanno bene
            per

            gestire i videogiochi di oggi. Con le
            prossime

            generazioni si potrà gestire roba ancora più

            spettacolare.

            Siamo già sullo spettacolare,se ti adagi sul
            fatto che tanto puoi contare su una GPU mostruosa
            creerai una softwate bloatware ed
            inefficiente.
            No, puoi creare un gioco altrettanto efficiente, che quindi è più spettacolare. Nota che più spettacolare non vuol dire automaticamente migliore, ma personalmente apprezzo i miglioramenti progressivi che ho visto dai tempi degli 8 bit.

            Necessario? No, si parla di giochi. Peccato
            che

            l'aggettivo "superfluo" si applichi anche al
            90%

            di ciò che facciamo o possediamo, quindi io

            investo con gioia in hardware videoludico
            perché

            ciò che ne traggo mi ripaga ampiamente della

            spesa.

            Si ma non farti diventare obsoleta la tua GPU in
            breve tempo.
            Basta abbassare un po' i vari effetti speciali, basta giocare con un monitor 1680x1050, e sospetto che una "vecchia" GTX 570 sia ancora perfettamente in grado di far girare la maggior parte dei giochi odierni.Finché questa obsolescenza porta a differenze come quelle tra Dishonored e Far Cry 4, io sono contento di aggiornare.

            Se per altri non è così, faranno a meno di

            aggiornare il loro sistema, che problema c'è?

            È il bello di poter scegliere

            :)

            Il problema è che dovrai gettare periodicamente
            la tua GPU ed il resto perché i suddetti giochi
            richiedono sempre più potenza hardware,
            inquinerai anche di più. Il software invece lo
            puoi modificare tantissime volte senza produrre
            sprechi.Gettare? Più probabilmente rivendere, a chi è contento di giocare titoli di un paio d'anni prima. Se vogliamo vedere l'inquinamento, credo che i videogiochi siano ancora un passatempo molto pulito, se confrontato a tutto ciò che implica andare in giro in veicoli a motore (non parliamo poi di aeroplani!). Tutto considerato, credo di inquinare meno della media, lo vedo anche dalle bollette moderate.
          • Etype scrive:
            Re: Balle
            - Scritto da: Izio01
            Tutto molto ipotetico. Soprattutto, occorre
            capire se questi presunti miglioramenti possano
            essere del 50%, del 5% o dello
            0,5%.Fossero anche del 20% ti converrebbe comunque.
            Più a stretto contatto con l'hardware vai, più
            costa sviluppare il software. In assenza di uno
            strato di astrazione e dovendo interfacciare
            direttamente ogni possibile scheda grafica che
            vuoi gestire, il costo diventa
            proibitivo.
            Scendere più a basso livello di DirectX con API
            semi-native ma pur sempre flessibili, tipo
            Mantle, è invece una cosa che mi ispira. Tanti
            anni fa, i giochi che usavano Glide andavano
            nettamente meglio di quelli che usavano
            Direct3D.Non è che le GPU te le regalino eh, poi così è anche un modo per avere più software di qualità ottimizzato che scrivere un bloatware perché tanto c'è la potenza bruta dell'hardware che ti para il deretano.
            No, puoi creare un gioco altrettanto efficiente,
            che quindi è più spettacolare. Nota che più
            spettacolare non vuol dire automaticamente
            migliore, ma personalmente apprezzo i
            miglioramenti progressivi che ho visto dai tempi
            degli 8
            bit.Io tendo sempre ad eliminare il superfluo e i miglioramenti impercettibili, specie in una fase concitata di un videogioco che difficilmente uno può apprezzare.
            Basta abbassare un po' i vari effetti speciali,
            basta giocare con un monitor 1680x1050, e
            sospetto che una "vecchia" GTX 570 sia ancora
            perfettamente in grado di far girare la maggior
            parte dei giochi
            odierni.
            Finché questa obsolescenza porta a differenze
            come quelle tra Dishonored e Far Cry 4, io sono
            contento di
            aggiornare.Dipende sempre dal titolo, su alcuni se non hai un hardware moderno non vai.
            Gettare? Più probabilmente rivendere, a chi è
            contento di giocare titoli di un paio d'anni
            prima. Se vogliamo vedere l'inquinamento, credo
            che i videogiochi siano ancora un passatempo
            molto pulito, se confrontato a tutto ciò che
            implica andare in giro in veicoli a motore (non
            parliamo poi di aeroplani!). Tutto considerato,
            credo di inquinare meno della media, lo vedo
            anche dalle bollette
            moderate.Chi ti comprerà mai un scheda di 5 anni fa ? Anche se sei fortunato ci hai perso una parte del denaro.Credo che la maggiore fonte di inquinamento sia dovuto a smartphone e tablet, visto che non puoi aggiornare l'interno e sono anche assai poco riparabili.
          • mmorselli scrive:
            Re: Balle
            - Scritto da: Etype
            - Scritto da: Izio01
            Fossero anche del 20% ti converrebbe comunque.Se chi sviluppa un gioco sapesse come farlo andare il 20% più veloce lo farebbe senza bisogno del tuo suggerimento, non trovi? Non è che se tu gli dici "ottimizzare" loro ti rispondono "genio, non ci avevamo pensato". Molti giochi si suppone avranno un boost del 20% passando alle DirectX 12, solo che devi farli funzionare prima, e pare non sia semplice, tutto deve adeguarsi, il software, le librerie, i driver, ma lo faranno, senza bisogno che qualcuno glielo ricordi.Detto questo... Che me ne faccio del 20% se mi servono 180fps costanti con 20ms di latenza quando ne faccio 30, non sempre costanti, e con la latenza che fa quello che le pare? (ARK Survival - GTX 980 - I5 4Ghz ... questo è il mio sistema e quelle sopra le prestazioni che faccio e quelle che invece dovrei fare per usarlo con un visore VR )
          • mmorselli scrive:
            Re: Balle
            - Scritto da: Etype
            Specchietti per allodole, le schede video che ci
            sono oggi sono già abbastanza potenti, meglio
            puntare su linguaggi di programmazione più
            efficienti che schede video che consumano più di
            un intero
            PC.Mi sa che non hai idea di cosa stiamo parlando. La grafica 3D utilizza principalmente la GPU, che si programma con il linguaggio della GPU. Siccome non esiste una sola GPU non è possibile scrivere direttamente il codice per la scheda video, ma bisogna passare per librerie, come le DirectX o le OpenGL. Nessuno comprerebbe un gioco che gira solo con una scheda nVidia serie 9. Non pensare che potendolo fare si otterrebbero miracoli, l'esempio sono le console, che ottengono prestazioni migliori di un PC a parità di hardware, ma nulla di trascendentale, sono sempre obbligati a ridurre tantissimo la qualità nelle console per ottenere prestazioni accettabili.Detto questo, la VR è una bestia brutta, bruttissima... Oculus CV1, che non sarà nulla di miracoloso, impone 90 fps in stereo su quad-HD, e impone VERO 3D, perché tanti giochi AAA che fanno 60fps in fullHD lo fanno perché usano trucchi per simulare il 3D vero, infatti questi giochi con gli occhiali stereoscopici non funzionano. Il vero 3D è pesantissimo, dobbiamo salire di un ordine di grandezza con l'hardware per iniziare solo a sperimentare qualcosa di serio.
          • Hop scrive:
            Re: Balle
            - Scritto da: mmorselli
            - Scritto da: Etype

            Specchietti per allodole, le schede video che ci

            sono oggi sono già abbastanza potenti, meglio

            puntare su linguaggi di programmazione più

            efficienti che schede video che consumano più di

            un intero

            PC.

            Mi sa che non hai idea di cosa stiamo parlando.Nemmeno tu, lui la pensa diversamente:https://en.wikipedia.org/wiki/Michael_AbrashE ne sa un pochino più di te :D
          • mmorselli scrive:
            Re: Balle
            - Scritto da: Hop
            Nemmeno tu, lui la pensa diversamente:
            https://en.wikipedia.org/wiki/Michael_Abrash

            E ne sa un pochino più di te :DE che risposta sarebbe? Prima di tutto, chi se ne frega se qualcuno la pensa diversamente, il principio d'autorità è per gli stupidi (non mi riferisco ad Abrash, ma a tu che provi a farne uso), contano gli argomenti, e il link wikipedia di una persona NON è un argomento. La pensa diversamente? Si, ma su cosa? Sicuro che il contesto sia lo stesso?Ti ho spiegato che la VR ha bisogno di 180fps in quadHD, puoi ottenere questo risultato con l'ottimizzazione software e l'hardware attuale? No, semplicemente, no. Per cui manco se dio in persona la pensasse diversamente potrebbe essere un argomento ammissibile. Tutto qui. La prossima volta prova ad usare controargomenti tuoi invece che rifarti alla biografia di qualcuno.
          • Hop scrive:
            Re: Balle
            - Scritto da: mmorselli
            - Scritto da: Hop


            Nemmeno tu, lui la pensa diversamente:

            https://en.wikipedia.org/wiki/Michael_Abrash



            E ne sa un pochino più di te :D

            E che risposta sarebbe? Prima di tutto, chi se ne
            frega se qualcuno la pensa diversamente, il
            principio d'autorità è per gli stupidi (non mi
            riferisco ad Abrash, ma a tu che provi a farne
            uso), contano gli argomenti, e il link wikipedia
            di una persona NON è un argomento. La pensa
            diversamente? Si, ma su cosa? Sicuro che il
            contesto sia lo
            stesso?

            Ti ho spiegato che la VR ha bisogno di 180fps in
            quadHD, puoi ottenere questo risultato con
            l'ottimizzazione software e l'hardware attuale?
            No, semplicemente, no. Per cui manco se dio in
            persona la pensasse diversamente potrebbe essere
            un argomento ammissibile. Tutto qui. La prossima
            volta prova ad usare controargomenti tuoi invece
            che rifarti alla biografia di
            qualcuno.E perché devo far fatica a spiegare qualcosa a qualcuno: tu, che non sa di CHI stiamo parlando?
          • mmorselli scrive:
            Re: Balle
            - Scritto da: Hop
            E perché devo far fatica a spiegare qualcosa a
            qualcuno: tu, che non sa di CHI stiamo
            parlando?Semplicemente perché il principio di autorità non si usa MAI, che tradotto in lingua comune significa che è SEMPRE irrilevante di chi stiamo parlando. Se mai rileva ciò che uno dice e gli argomenti che porta a dimostrazione di una tesi, per cui se vuoi citare qualcuno a sostegno di una tua tesi fai pure, ma fallo con i suoi argomenti, non con la sua biografia su Wikipedia, altrimenti ci fai una pessima figura dato che sono circa 400 anni che abbiamo capito e assimilato questo concetto. Pare comunque che tu, di argomenti tuoi non ne abbia, o sbaglio?
          • Hop scrive:
            Re: Balle
            - Scritto da: mmorselli
            - Scritto da: Hop


            E perché devo far fatica a spiegare qualcosa
            a

            qualcuno: tu, che non sa di CHI stiamo

            parlando?

            Semplicemente perché il principio di autorità non
            si usa MAI, che tradotto in lingua comune
            significa che è SEMPRE irrilevante di chi stiamo
            parlando. Se mai rileva ciò che uno dice e gli
            argomenti che porta a dimostrazione di una tesi,
            per cui se vuoi citare qualcuno a sostegno di una
            tua tesi fai pure, ma fallo con i suoi argomenti,
            non con la sua biografia su Wikipedia, altrimenti
            ci fai una pessima figura dato che sono circa 400
            anni che abbiamo capito e assimilato questo
            concetto.


            Pare comunque che tu, di argomenti tuoi non ne
            abbia, o
            sbaglio?Sbagli, io il libro citato nella biografia l'ho letto e usato ai suoi tempi...E ne valeva la pena, se vuoi sapere di più cercati il black book e LEGGILO
          • Mario scrive:
            Re: Balle
            - Scritto da: rockroll
            - Scritto da: Sg@bbio

            Si dovrebbe lavorare molto sulle schede video,

            che sono oggi dei mostri di dimensioni e di

            calore.

            A che scopo, per giocare?

            Le SK video discrete sono diventate dei mostri
            inutili, ne hai d'avanzo di un'integrata se non
            giochi, basta che sia stutturata per servire le
            elaborazioni parallele eventualmente richieste
            dalla
            CPU.non solo per giocare, il 4K sta diventando lo standard per i monitor
          • Etype scrive:
            Re: Balle
            Nelle comuni applicazioni non serve a nulla, ti basta un Full HD
          • Mario scrive:
            Re: Balle
            - Scritto da: Etype
            Nelle comuni applicazioni non serve a nulla, ti
            basta un Full
            HDuna volta dicevano 640x480
          • mmorselli scrive:
            Re: Balle
            - Scritto da: Etype
            Nelle comuni applicazioni non serve a nulla, ti
            basta un Full
            HDScherzi? Io lavoro in 2560x1440 perché in fullHD su 27" vedevo pixel grossi come sassi e mi infastidiva. Il 4K mi attira, perché comunque anche in 1440p non ho quella nitidezza a cui mi hanno abituato i display del telefonino. Lavorare è fatica, come pretendo di farlo su una sedia comoda, a maggior ragione pretendo di farlo su un display comodo.
          • iRoby scrive:
            Re: Balle
            Concordo, il fullHD già su display da 24" inizia ad essere insufficiente.
          • rikkajounin scrive:
            Re: Balle
            Reti neurali?
    • Mario scrive:
      Re: Balle
      - Scritto da: rico
      La legge di Moore non è più valida solo per chi
      vede l'evoluzione come un progresso
      continuo.
      In realtà l'evoluzione, sia biologica che
      tecnologica, procede a salti: scommettiamo che il
      chip quantistico oppure ottico zittirà quelli che
      dicono "Non c'è più margine per la
      potenza".
      Che poi alcuni software "moderni" girano bene su
      PC di venti o trent'anni fa, nessun dubbio:
      rivolgersi a Linux, per
      questo.
      Inoltre puoi avere il 4G, 5G o tutta connesione
      che vuoi, se il processore non regge avrai
      comunque un dispositivo
      LENTO.Google dice che il suo computer quantistico è 100.000.000 di volte più veloce di un computer tradizionale, si è vero la legge di Moore non vale più, è stata disintegratahttp://www.tomshw.it/news/il-computer-quantistico-di-google-e-una-scheggia-72623
      • rockroll scrive:
        Re: Balle
        Google dice che il suo computer quantistico è 100.000.000 di volte più veloce di un computer tradizionale, si è vero la legge di Moore non vale più, è stata disintegrata Tra il dire e il fare c'è di mezzo il mare.Comunque la legge di Moore è riferita al silicio, e come silicio è praticamente al capolinea.
        • Mario scrive:
          Re: Balle
          - Scritto da: rockroll
          <i
          Google dice che il suo computer quantistico è
          100.000.000 di volte più veloce di un computer
          tradizionale, si è vero la legge di Moore non
          vale più, è stata
          disintegrata </i


          Tra il dire e il fare c'è di mezzo il mare.

          Comunque la legge di Moore è riferita al silicio,
          e come silicio è praticamente al
          capolinea.infatti, il silicio sta per essere sostituito come avviene per tutti i cicli tecnologici.
      • Izio01 scrive:
        Re: Balle
        - Scritto da: Mario
        Google dice che il suo computer quantistico è
        100.000.000 di volte più veloce di un computer
        tradizionale, si è vero la legge di Moore non
        vale più, è stata disintegrata
        http://www.tomshw.it/news/il-computer-quantistico-A quanto ne so io, la differenza principale è che un computer quantistico dovrebbe poter risolvere problemi NP (risolubili in tempo polinomiale, ma solo da una macchina di Turing non deterministica) in tempo costante o lineare, mentre un PC tradizionale va in esponenziale rispetto alla dimensione dell'input.Non penso che si possa usare un computer quantistico per fare le stesse cose che si fanno con uno tradizionale, non credo che quel rapporto di cento milioni valga per il calcolo di formule in Excel o il rendering 3D di superfici complesse.
  • buttha scrive:
    mah
    sono anni che leggo un'infinità di articoli che annunciano l'imminente fine della legge di Moore ma ancora niente.E fare un solo articolo quando tale congettura verrà veramente confutata dai fatti?
  • LinkZ scrive:
    __________
    La legge di Moore è l'ennesima cagata di marketing ai tempi del wintel. Man mano che le vacche sono diventate sempre più magre la gente ha scoperto che forse non era tanto conveniente cambiare pc ogni due anni (in concomitanza con l'uscita del nuovo winzoz, guarda caso) e così si è magicamente accorta che anche un "vecchio" pc di due anni poteva fare le stesse identiche cose di uno fiammante. Diciamo che la legge di Moore è sempre stata la naturale evoluzione dell'obsolescenza pianificata.
  • Uno scrive:
    Mah....
    I grandi chipmakers, Intel per priam, si fermano perché costa sempre di più ridurre la scala e sotto i 10 nm e quasi impossibile andare.Forse lo farà l'IBM deposiatndo gli atomi uno a uno, ma a che costi.
    • un altro scrive:
      Re: Mah....
      - Scritto da: Uno
      I grandi chipmakers, Intel per priam, si fermano
      perché costa sempre di più ridurre la scala e
      sotto i 10 nm e quasi impossibile andare.Invece di aumentare il numero dei transistor o di ridurne la scala, si dovrebbe puntare a far funzionare quelli che già ci sono a frequenze sempre più elevate.
      • nushuth scrive:
        Re: Mah....

        Invece di aumentare il numero dei transistor o di
        ridurne la scala, si dovrebbe puntare a far
        funzionare quelli che già ci sono a frequenze
        sempre più
        elevate.E' arrivato il genio.per aumentare la frequenza, devi ridurre la scala... altrimenti il calore da dissipare aumenta in proporzioni logaritmiche. e di conseguenza i consumi.
        • ... scrive:
          Re: Mah....
          - Scritto da: nushuth

          Invece di aumentare il numero dei transistor o
          di

          ridurne la scala, si dovrebbe puntare a far

          funzionare quelli che già ci sono a frequenze

          sempre più

          elevate.

          E' arrivato il genio.

          per aumentare la frequenza, devi ridurre la
          scala... altrimenti il calore da dissipare
          aumenta in proporzioni logaritmiche. e di
          conseguenza i
          consumi.logaritmiche? forse volevi dire "esponenziali".
        • un altro scrive:
          Re: Mah....
          - Scritto da: nushuth
          per aumentare la frequenza, devi ridurre la
          scala... altrimenti il calore da dissipare
          aumenta in proporzioni logaritmiche. e di
          conseguenza i consumi.A quello si può rimediare ricorrendo a sistemi di dissipazione sempre più efficienti. Poi nessuno ha detto che si debba sparare la frequenza a livelli astronomici, anche solo qualche ghz in più di media sarebbe già un bel passo avanti.
        • consumi sta ceppa scrive:
          Re: Mah....
          - Scritto da: nushuth
          e di conseguenza
          i consumi.e sarebbe anche ora di smetterla con sti TDP castrati a 130W, non tutti sono dei poveracci che non possono permettersi di pagare la corrente.
        • rockroll scrive:
          Re: Mah....
          - Scritto da: nushuth

          Invece di aumentare il numero dei transistor o
          di

          ridurne la scala, si dovrebbe puntare a far

          funzionare quelli che già ci sono a frequenze

          sempre più

          elevate.

          E' arrivato il genio.

          per aumentare la frequenza, devi ridurre la
          scala... altrimenti il calore da dissipare
          aumenta in proporzioni logaritmiche. e di
          conseguenza i
          consumi.Veramente il calore lo dissipi megli su oggetti di maggior dimensioni.Un chip di maggiori dimensioni sopporta un voltaggio maggiore, ma a parità di voltaggio e presumibilmente di assorbimento sopporta meglio l'egual quantità di calore generata. Diminuendo i nanometri ma lasciando lo stesso ingombro fisico ti darei ragione, ma invece si tende a concentrare in un volume minore, ed i vantaggi che tu intendi vanno un po' a pallino.Tanto è vero che anche miniaturizzando ulteriormente non si sono riscontrati particolari incrementi di frequenza, ma solo diminuzione dei consumi (un chip più miniaturizzato lo alimenti con tensione leggermente inferiore a parità di frequenza, ed il calore sviluppato è funzione quadratica della tensione).
      • Etype scrive:
        Re: Mah....
        - Scritto da: un altro
        Invece di aumentare il numero dei transistor o di
        ridurne la scala, si dovrebbe puntare a far
        funzionare quelli che già ci sono a frequenze
        sempre più
        elevate.Così ti ritrovi un bel fornellino :D
Chiudi i commenti