MySpace destinato ad un repentino declino?

Uno dei fenomeni recenti del web sta passando un brutto periodo: i phisher lo attaccano e gli utenti sembra abbiano perso interesse e stiano passando ad altri portali più giovani e accattivanti. Almeno così dicono

Roma – Steve Ballmer aveva ragione ? Gli attuali fenomeni del social networking, portali come YouTube e MySpace , che hanno raggiunto in breve tempo una popolarità enorme, sono davvero un fenomeno transitorio destinato a passare inesorabilmente di moda per la velleitarietà dei teenager che vi contribuiscono e sono davvero destinati a soccombere sotto l’azione dei criminali informatici che li prendono di mira per raccogliere informazioni personali con sconcertante facilità?

Il portale di Rupert Murdoch , in particolare, sembra dare segni di cedimento nella sua gloriosa ascesa nel settore delle web community: società di sicurezza scoprono tentativi di phishing molto ben mimetizzati con l’interfaccia principale di accesso, e il Washington Post online in una sorta di “articolo scandalo” lo dà addirittura per bollito entro massimo un anno .

Sicurezza compromessa: Netcraft , security enterprise realizzatrice tra l’altro della omonima toolbar di contrasto alla raccolta illecita di informazioni personali, ha scovato la presenza di una falsa pagina di login su MySpace : utilizzando una pagina di profilo ospitata sul portale dallo username login_home_index_html , l’attacco utilizza codice HTML specificamente realizzato per nascondere la reale pagina di login di MySpace e mostrare la propria. L’utente, tratto in inganno dall’ingegnoso artificio, inserisce con fiducia i propri dati di accesso, che vengono rediretti e raccolti su un server remoto situato in Francia.

Una volta compromesso l’account, i criminali dietro l’iniziativa possono raccogliere tutte le informazioni personali ivi presenti e utilizzarle per i propri scopi illeciti. Questo tipo di servizi viene visto come un facile obiettivo dai phisher , per via della minore diffidenza e la generale noncuranza di pratiche di sicurezza sul web caratteristiche dei fruitori abituali del social networking.

Oltre a gravi e preoccupanti falle di sicurezza, MySpace deve ora vedersela anche con un’emorragia di utenti che, se diventasse una tendenza, decreterebbe entro breve la rovinosa caduta del portale. Nel suo articolo , il Washington Post sostiene che alcuni degli utenti registrati stanno provvedendo alla cancellazione delle informazioni personali dai profili MySpace. Considerando la natura sociale del portale, questo il ragionamento del prestigioso quotidiano, si può ben immaginare come lo stesso passaparola che ne ha decretato il successo, agendo in senso contrario, potrebbe portarlo ad un fallimento ancora più subitaneo e repentino.

Il tempo di permanenza online che gli utenti spendono a riempire il proprio profilo e a scambiarsi informazioni, messaggi e interessi all’interno del network di MySpace, fattore importante per analizzare la popolarità di questo genere di siti nel corso del tempo, parla di un picco di 2 ore e 25 minuti di media raggiunto nel corso del primo anno e mezzo di vita del servizio, stabilizzatosi poi su 2 ore circa durante tutto l’anno scorso. Nuovi portali sociali come Facebook fanno al contrario registrare ancora ascese graduali di popolarità, raggiungendo 1 ora e 9 minuti di permanenza media (dati del mese scorso).

Il Washington Post cita diversi motivi per il possibile declino di MySpace , inclusi il controllo di insegnanti e genitori preoccupati di tutto il tempo speso dai ragazzi a “giocare” con il PC e il web, la concorrenza di siti più giovani e la generale predisposizione degli internauti di più giovane età a farsi incantare dalla novità e a seguire la moda del momento abbandonando qualcosa di noto e “stabile”, che magari non attira più come prima.

La prospettiva di un ciclo di vita relativamente breve di siti così popolari potrebbe avere un impatto notevole sugli interessi di giganti come Google, che ha recentemente speso 1,65 miliardi di dollari per comprare YouTube e si è accordato con MySpace per la fornitura dei servizi di advertising propri del suo AdSense .

Alfonso Maruccia

La tua email sarà utilizzata per comunicarti se qualcuno risponde al tuo commento e non sarà pubblicato. Dichiari di avere preso visione e di accettare quanto previsto dalla informativa privacy

  • Anonimo scrive:
    WinRK: la migliore compressione
    Che io sappia, il programma con la migliore capacità di compressione è WinRK.E comunque su un file "fisso" di 100Mb la compressione è una stupidata. Vi faccio vedere che lo comprimo a 1 byte.Poi faccio un compressore .exe che contiene esattamente i 100 mega di stringa e li sostituisce a quell'unico byte.Ovviamente con altri files darà risultati disastrosi in termini di compressione, ma con il file di test sarà potentissimo.... :) :D
    • Anonimo scrive:
      Re: WinRK: la migliore compressione
      Se sei stupido non è necessario che lo fai capire a tutti...
    • Anonimo scrive:
      Re: WinRK: la migliore compressione
      Scusa, perché non comprimere a ZERO byte? Tanto il file di test è già interamente compreso nel compressore, no? :D
  • Anonimo scrive:
    Consumo elevato swap
    Ho provato con molto interesse questo compressore, in quanto mi sono prodigato anche io nel programmarne uno e nel mio piccolo sono arrivato alla stessa conclusione; l'algoritmo a tabella dinamica. Ma questa soluzione richiede molto piu tempo dei veloci compressori che tutti conosciamo.Il compressore di Alexander forse può essere considerato a malapena una alfa, per ora consuma tantissimo swap (1.5 GB netto per un file exe da 1.6MB) e tempi biblici. Inoltre il disco fisso lavora veramente troppo il che è male. Se con questo compressore si prefissava di raggiungere l'obbiettivo proposto da wiki, ok, ma non serve assolutamente a nulla e penso che un bravo programmatore possa produrre un compressore anche piu performante di quello... magari ci mette un mese per compattare 1.6 MB di dati ridondanti, ma ci riesce... Non esiste e non esisterà mai un pc abbastanza potente per far funzionare un simile memory leaker... Ecco, penso sia la sua giusta definizione ^^Ciao.
  • Anonimo scrive:
    bzip2
    BZIP2 per ora è il più pratico e dal migliore rapporto compressione/velocità.Su Linux di serie e il più usato dopo il gzip.
  • Anonimo scrive:
    LOL, ma è "tabellato"
    ha usato una tabella di 44800 parole comuni.Ovvio che su testi inglesi comprima molto bene.Se comprimete la tabella stessa con il programma a livello 8 (occhio che ciuccia oltre un GB di ram), otterrete una riduzione da 403 KB a 360 Bytes .. ma lol..
  • Anonimo scrive:
    Mi aiutate a farlo funzionare?
    Mi da questo errore:C:Program FilesInternet Explorer
    paq8hp6.exe -0 ie.paq622080 iexplore.exe:This application has requested the Runtime to terminate it in an unusual way.Please contact the application's support team for more information.
  • Zappa scrive:
    La mia piccola prova
    Ho compresso 18 files asp (di testo, quindi) per un totale di 155KBRisultato:Winzip alla massima compressione: 41KBpaq8hp6 a compressione 4 (default): 12KBTempo? Winzip un attimo, paq8hp6 una vita.Riestratti i files dall'archivio: Winzip: un attimopaq8hp6: 12243 -
    155316 (0.6306 bpc) in 65.89 sec (2.357 KB/sec)Molto lento, ma quanto comprime!Per inciso, quando si lancia paq8hp6 esso genera un file dizionario di 400KB, che non cancella.Utilità? non ne vedo molta, considerando che ho anche provato a comprimere un file di 8MB ed ho lasciato perdere dopo un'ora!Andrea
    • Anonimo scrive:
      crescita
      - Scritto da: Zappa
      Ho compresso 18 files asp (di testo, quindi) per
      un totale di
      155KB
      Risultato:
      Winzip alla massima compressione: 41KB
      paq8hp6 a compressione 4 (default): 12KB
      Tempo? Winzip un attimo, paq8hp6 una vita.
      Riestratti i files dall'archivio:
      Winzip: un attimo
      paq8hp6: 12243 -
      155316 (0.6306 bpc) in 65.89
      sec (2.357
      KB/sec)
      Molto lento, ma quanto comprime!
      Per inciso, quando si lancia paq8hp6 esso genera
      un file dizionario di 400KB, che non
      cancella.
      Utilità? non ne vedo molta, considerando che ho
      anche provato a comprimere un file di 8MB ed ho
      lasciato perdere dopo
      un'ora!Vero, ma questi algoritmi potrebbero essere più utili in futuro, dato che la necessità di manipolare grosse quantità di dati cresce, ma cresce anche la potenza di elaborazione dei computer (senza contare che certi algoritmi potrebbero trovare applicazione anche soltanto sui supercomputer).Del resto anche WinZip su Windows 95 ci metteva una vita a comprimere o decomprimere grosse quantità di dati, e spesso falliva per ragioni probabilmente legate alla quantità di memoria disponibile. Adesso invece, come hai notato, ci mette un attimo, anche se l'algoritmo utilizzato è sostanzialmente lo stesso.
      • Anonimo scrive:
        Re: crescita
        ricordo quando su amiga ci metteva 30 secondi a "renderizzare" una jpeg 1280x960. Renderizzare ovviamente sta solo per il processo di decodifica del jpeg, l'immagine già esisteva...(rotfl)
        • Anonimo scrive:
          Re: crescita
          - Scritto da:
          ricordo quando su amiga ci metteva 30 secondi a
          "renderizzare" una jpeg 1280x960. Renderizzare
          ovviamente sta solo per il processo di decodifica
          del jpeg , l'immagine già
          esisteva...

          (rotfl)IFF (geek)
    • Anonimo scrive:
      Re: La mia piccola prova
      - Scritto da: Zappa
      Utilità? non ne vedo molta, considerando che ho
      anche provato a comprimere un file di 8MB ed ho
      lasciato perdere dopo
      un'ora!Anche il diffuso winRAR è lentissimo in fase di compressione, ci mette letteralmente ore per comprimere un gigabyte di dati (quindi è solo due o tre ordini di grandezza più veloce di pag8hp5).Per gli usi pratici la cosa importante è che la decompressione sia ragionevolmente rapida. Il tempo di compressione diventa irrilevante se lo scopo del file è essere distribuito ad un numero molto grande di persone.
    • Anonimo scrive:
      Re: La mia piccola prova
      - Scritto da: Zappa
      Ho compresso 18 files asp (di testo, quindi) per
      un totale di
      155KB
      Risultato:
      Winzip alla massima compressione: 41KB
      paq8hp6 a compressione 4 (default): 12KB
      Tempo? Winzip un attimo, paq8hp6 una vita.
      Riestratti i files dall'archivio:
      Winzip: un attimo
      paq8hp6: 12243 -
      155316 (0.6306 bpc) in 65.89
      sec (2.357
      KB/sec)
      Molto lento, ma quanto comprime!
      Per inciso, quando si lancia paq8hp6 esso genera
      un file dizionario di 400KB, che non
      cancella.
      Utilità? non ne vedo molta, considerando che ho
      anche provato a comprimere un file di 8MB ed ho
      lasciato perdere dopo
      un'ora!
      AndreaProva paq6v2; comprime un po' meno ma e' MOLTO piu' veloce. Infatti, risulta tranquillamente utilizzabile per file non troppo grossi.
  • Anonimo scrive:
    Paq8hp6 non funge
    Non funziona, ho provato a fare una compressione, ma quando sono andato a decomprimere i 3kb che avrebbero dovuto rappresentare i 20mb iniziali ha ricreato un file non valido e completamente differente dall'originale se confrontato con fc, mah?!?
    • Anonimo scrive:
      Re: Paq8hp6 non funge
      - Scritto da:
      Non funziona, ho provato a fare una compressione,
      ma quando sono andato a decomprimere i 3kb che
      avrebbero dovuto rappresentare i 20mb iniziali ha
      ricreato un file non valido e completamente
      differente dall'originale se confrontato con fc,
      mah?!?Il che dimostra che è una grande bufala.
      • Anonimo scrive:
        Re: Paq8hp6 non funge
        dimostra solo che non avete letto l'articolo.
      • Anonimo scrive:
        Re: Paq8hp6 non funge
        - Scritto da:

        - Scritto da:

        Non funziona, ho provato a fare una
        compressione,

        ma quando sono andato a decomprimere i 3kb che

        avrebbero dovuto rappresentare i 20mb iniziali
        ha

        ricreato un file non valido e completamente

        differente dall'originale se confrontato con fc,

        mah?!?

        Il che dimostra che è una grande bufala.Ma per favore... (troll)
  • pippo75 scrive:
    Sconfiggeranno Shannon?
    secondo voi riusciranno a battere le sue teorie?Sono anni che lo spero....
    • Anonimo scrive:
      Re: Sconfiggeranno Shannon?
      - Scritto da: pippo75
      secondo voi riusciranno a battere le sue teorie?

      Sono anni che lo spero....Guarda che sono teoremi non teorie!Spera spera!E mi raccomando, con i tuoi figli fai la stessa cosa: non farli studiare, crescili ignoranti come il padre!
      • Anonimo scrive:
        Re: Sconfiggeranno Shannon?
        Questi commenti stanno diventando solo luogo di troll gratuiti.che cacchio ne sai tu se il tizio che ha scritto teorie è un "ignorante" come sei riuscito a semplificare in 3 nanosecondi? Magari questo ha 4 lauree e due nobel ma in altri ambiti e gli è uscita una sciocchezza...basta trollare gente!
        • Anonimo scrive:
          Re: Sconfiggeranno Shannon?
          Tipico comportamente da pseudo-intelligente mancato e pure sfigato che per una cosa che sa la rinfaccia agli altri dando anche epiteti gratuiti per un qui pro quo scritto...Diventa sempre peggio qua in giro....- Scritto da:
          Questi commenti stanno diventando solo luogo di
          troll
          gratuiti.

          che cacchio ne sai tu se il tizio che ha scritto
          teorie è un "ignorante" come sei riuscito a
          semplificare in 3 nanosecondi? Magari questo ha 4
          lauree e due nobel ma in altri ambiti e gli è
          uscita una
          sciocchezza...

          basta trollare gente!
          • Anonimo scrive:
            Re: Sconfiggeranno Shannon?
            - Scritto da:
            Tipico comportamente da pseudo-intelligente
            mancato e pure sfigato che per una cosa che sa la
            rinfaccia agli altri dando anche epiteti gratuiti
            per un qui pro quo scritto...Diventa sempre
            peggio qua in
            giro....
            - Scritto da:

            Questi commenti stanno diventando solo luogo di

            troll

            gratuiti.



            che cacchio ne sai tu se il tizio che ha scritto

            teorie è un "ignorante" come sei riuscito a

            semplificare in 3 nanosecondi? Magari questo ha
            4

            lauree e due nobel ma in altri ambiti e gli è

            uscita una

            sciocchezza...



            basta trollare gente!I qui pro quo li state facendo voi due, non avendo capito la domanda, ne il senso della risposta, anche se troppo irruenta.Uno con 4 lauree e un nobel non cita Shannon a casaccio! Al limite conoscendo Shannon possiede una laurea, con qualche lacuna sui Teoremi di Shannon, cosa che a quanto pare manca a voi due!
      • Anonimo scrive:
        Re: Sconfiggeranno Shannon?
        - Scritto da:

        Guarda che sono teoremi non teorie!

        Spera spera!

        E mi raccomando, con i tuoi figli fai la stessa
        cosa: non farli studiare, crescili ignoranti come
        il
        padre!SFIGATO (troll4)
      • pippo75 scrive:
        Re: Sconfiggeranno Shannon?
        - Scritto da:

        - Scritto da: pippo75

        secondo voi riusciranno a battere le sue teorie?



        Sono anni che lo spero....

        Guarda che sono teoremi non teorie!Sino a prova contraria ogni teorema ha dietro una teoria.E fino a poco tempo fa avevo sempre parlato di teoria della comunicazione........


        E mi raccomando, con i tuoi figli fai la
        stessa cosa: non farli studiare, crescili
        ignoranti come il padre!Scusatelo e' mio figlio, ogni tanto perde la pazienza, ha preso un brutto voto a scuoladopo tutto cresce come me
        • Anonimo scrive:
          Re: Sconfiggeranno Shannon?
          - Scritto da: pippo75

          - Scritto da:



          - Scritto da: pippo75


          secondo voi riusciranno a battere le sue
          teorie?





          Sono anni che lo spero....



          Guarda che sono teoremi non teorie!

          Sino a prova contraria ogni teorema ha dietro una
          teoria.

          E fino a poco tempo fa avevo sempre parlato di
          teoria della
          comunicazione........Un teoria è formato da una serie di congetture da dimostrare. Quando dimostri una congettura ottieni un teorema. Il più importante teorema di Shannon dice che non puoi comprimere più dell'entropia del messaggio. Se vuoi ottenere fattori di compressione maggiori devi utilizzare meccanismi di scartamento dell'informazione, come negli algoritmi di compressione jpeg per le immagini.



          E mi raccomando, con i tuoi figli fai la

          stessa cosa: non farli studiare, crescili

          ignoranti come il padre!


          Scusatelo e' mio figlio, ogni tanto perde la
          pazienza, ha preso un brutto voto a
          scuola

          dopo tutto cresce come meHai capito perché speri invano papà?Ciao!
          • pippo75 scrive:
            Re: Sconfiggeranno Shannon?

            Un teoria è formato da una serie di
            congetture da dimostrare. Quando dimostri una
            congettura ottieni un teorema. Il più
            importante teorema diho fatto confusione dei termini.....
          • Anonimo scrive:
            Re: Sconfiggeranno Shannon?


            Un teoria è formato da una serie di

            congetture da dimostrare. Quando dimostri una

            congettura ottieni un teorema. Il più

            importante teorema di

            ho fatto confusione dei termini.....
            CVD :D
          • Anonimo scrive:
            Re: Sconfiggeranno Shannon?

            ho fatto confusione dei termini.....
            Guarda che se si fosse trattato di un semplice errore di termini, non ti avre proprio risposto. L'errore più grande che hai fatto sta proprio nel titolo: "Sconfiggeranno Shannon"; indica il fatto che tu non hai ben compreso il significato di tali teoremi. La risposta è semplicemente no, è impossibile e credo di avertelo spiegato in un post precedente. Per il resto ti devo chiedere scusa per l'irruenza della mia risposta, volevo solo fare una battuta citando il grande Toto', ma io non sono lui per cui mi è riuscita male.Ciao!
          • Anonimo scrive:
            Re: Sconfiggeranno Shannon?
            - Scritto da:


            ho fatto confusione dei termini.....



            Guarda che se si fosse trattato di un semplice
            errore di termini, non ti avre proprio risposto.
            L'errore più grande che hai fatto sta proprio nel
            titolo: "Sconfiggeranno Shannon"; indica il fatto
            che tu non hai ben compreso il significato di
            tali teoremi. La risposta è semplicemente no, è
            impossibile e credo di avertelo spiegato in un
            post precedente. Per il resto ti devo chiedere
            scusa per l'irruenza della mia risposta, volevo
            solo fare una battuta citando il grande Toto', ma
            io non sono lui per cui mi è riuscita
            male.

            Ciao!Impossibile è dire una stupidaggine. Un teorema, una teoria sono considerate il limite solo finchè non diventa pubblica un altra che supera i limiti dei precedenti, altrimenti staremmo ancora alla Terra che è piatta...
          • ciko scrive:
            Re: Sconfiggeranno Shannon?

            Impossibile è dire una stupidaggine. Un teorema,
            una teoria sono considerate il limite solo finchè
            non diventa pubblica un altra che supera i limiti
            dei precedenti, beh, non e' proprio la stessa cosa...un teorema e' qualcosa di dimostrato partendo da degli assiomi universalmente riconosciuti...una volta dimostrato un teorema per smontarlo dovresti invalidare gli assiomi di base, che spesso sono le basi di tutta la matematica odierna(un po' difficile trovarne una falla...).
            altrimenti staremmo ancora alla
            Terra che è
            piatta...no, quella era una teoria mai dimostrata ma accettata per "fede"
          • pippo75 scrive:
            Re: Sconfiggeranno Shannon?

            L'errore più grande che hai fatto sta proprio
            nel titolo: "Sconfiggeranno Shannon"; indica
            il fatto che tu non hai ben compreso il
            significato di tali teoremi. La risposta è
            semplicemente no, èIn effetti da quanto ricordo, e' tempo che non li vedo, tutto sommato non erano cosi' elementari.Spero un giorno di avere il tempo per riprenderli in mano e rileggerli.
            impossibile e credo di avertelo spiegato in un
            post precedente. Per il resto ti devo chiedere
            scusa per l'irruenza della mia risposta,
            volevoForse anche il titolo come dici tu era un po esasperato.Dopotutto c'e' chi sogna di diventare meglio di Maradona e chi sogna di avere una compressione che riesca a scendere sotto il livello dell'entropia ( secondo shannon impossibile, ma per fortuna l'utopia non e' ancora vietata ).Chissa se ho ancora in giro gli appunti del prof. ? Quando e se li trovero' andro a rivederli.
    • Anonimo scrive:
      Re: Sconfiggeranno Shannon?
      Ne sono convinto visto che Shannon basa le sue teorie sull' ipotesi che si possa avere in input un qualsiasi valore fra tutti i possibili , nel caso specifico i possibili valori di 100 Mb sono 2^(8*100.000.000) , non esiste niente che possa creare una cosa del genere !Denis.
  • Anonimo scrive:
    Fare Backup off-line di Wikipedia
    Ragazzi gia' che si parla di compressione backup :come si fa a salvare una copia offline della wiki ?Per i siti normali basta usare un software (ce ne sono tanti in giro, per es. HTTrack che e' free).Solo che con wikipedia non funziona (a quanto pare dipende dalla struttura stessa della wiki...non sono esperto)Cercando wikipedia offline ho trovato un paio di programmini, pero' :1-richiedono WindowsXp e SP1 o SP22-uno dei due nemmeno funziona.C'e' verso di farsi una copia completa da consultare offline ?Qualcuno sa come ?
    • sathia scrive:
      Re: Fare Backup off-line di Wikipedia
      http://en.wikipedia.org/wiki/Wikipedia:Database_download
      • Anonimo scrive:
        Re: Fare Backup off-line di Wikipedia
        - Scritto da: sathia
        http://en.wikipedia.org/wiki/Wikipedia:Database_doCredo che l'autore del thread non intendesse chiedere da dove scaricare il database, ma come fare per poterlo consultare off-line, sul proprio PC, una volta scaricato.
        • Anonimo scrive:
          Re: Fare Backup off-line di Wikipedia
          - Scritto da:
          Credo che l'autore del thread non intendesse
          chiedere da dove scaricare il database, ma come
          fare per poterlo consultare off-line, sul proprio
          PC, una volta
          scaricato.Beh, una volta che hai il db, hai tutto.Non resta che installarsi un server web locale e il software del wiki e il motore db previsto dal suddetto software (o anche installarsene uno a piacere, modificando il sw).Hm, un'alternativa potrebbe essere la realizzazione e vendita (non esclusiva) di un cd/dvd? k1
        • manfrys scrive:
          Re: Fare Backup off-line di Wikipedia
          - Scritto da:
          - Scritto da: sathia


          http://en.wikipedia.org/wiki/Wikipedia:Database_do

          Credo che l'autore del thread non intendesse
          chiedere da dove scaricare il database, ma come
          fare per poterlo consultare off-line, sul proprio
          PC, una volta
          scaricato.In tal caso esiste la versione "static"http://en.wikipedia.org/wiki/Wikipedia:Database_download#Static_HTML_tree_dumps_for_mirroring_or_CD_distributionBuona vita.
          • Anonimo scrive:
            Re: Fare Backup off-line di Wikipedia
            - Scritto da: manfrys

            - Scritto da:

            - Scritto da: sathia





            http://en.wikipedia.org/wiki/Wikipedia:Database_do



            Credo che l'autore del thread non intendesse

            chiedere da dove scaricare il database, ma come

            fare per poterlo consultare off-line, sul
            proprio

            PC, una volta

            scaricato.

            In tal caso esiste la versione "static"

            http://en.wikipedia.org/wiki/Wikipedia:Database_do

            Buona vita.Grazie, cercavo proprio una copia del genere :)
  • Anonimo scrive:
    Un solo algoritmo ?
    E come avrebbe ottenuto tanta compressione con un singolo algoritmo, lossless poi ? Vada per il testo, è normale, ma le immagini JPEG che sono già compresse ? Che fa, le decomprime e ricomprime lossy ? Se avesse inventato qualcosa di innovativo o rivoluzionario gruppi come MPEG lo avrebbero già usato ed il tizio non avrebbe perso tempo con Wikipedia.
    • Anonimo scrive:
      Re: Un solo algoritmo ?
      - Scritto da:
      E come avrebbe ottenuto tanta compressione con un
      singolo algoritmo, lossless poi ? Vada per il
      testo, è normale, ma le immagini JPEG che sono
      già compresse ? Che fa, le decomprime e
      ricomprime lossy ?JPEG e' gia' di suo lossy; ma dal tono della tua domanda ritengo che non lo sapessi.
      Se avesse inventato qualcosa di innovativo o
      rivoluzionario gruppi come MPEG lo avrebbero già
      usato ed il tizio non avrebbe perso tempo con
      Wikipedia.Forse (e due) ti e' sfuggito il punto fondamentale della cosa: prevedere il modello di compressione migliore attraverso l'analisi dei contenuti piuttosto che sulla base di regole e schemi prefissati di ridondanza dei dati . Ma immagino che tu di compressione dei dati non ne sappia granche', per cui lasciamo cadere la cosa. :Dk1
      • Anonimo scrive:
        Re: Un solo algoritmo ?
        - Scritto da:

        - Scritto da:

        E come avrebbe ottenuto tanta compressione con
        un

        singolo algoritmo, lossless poi ? Vada per il

        testo, è normale, ma le immagini JPEG che sono

        già compresse ? Che fa, le decomprime e

        ricomprime lossy ?

        JPEG e' gia' di suo lossy; ma dal tono della tua
        domanda ritengo che non lo
        sapessi.Ritieni male.

        Se avesse inventato qualcosa di innovativo o

        rivoluzionario gruppi come MPEG lo avrebbero già

        usato ed il tizio non avrebbe perso tempo con

        Wikipedia.

        Forse (e due) ti e' sfuggito il punto
        fondamentale della cosa: prevedere il
        modello di compressione migliore attraverso
        l'analisi dei contenuti piuttosto che sulla base
        di regole e schemi prefissati di ridondanza dei
        dati .

        Ma immagino che tu di compressione dei dati non
        ne sappia granche', per cui lasciamo cadere la
        cosa.
        :D

        k1Sì, come no. Infatti dimostri di saperne tanto tu di compressione, vero ? A parte la strafottenza non hai dimostrato altro.
        • Anonimo scrive:
          Re: Un solo algoritmo ?
          - Scritto da:

          Ma immagino che tu di compressione dei dati non

          ne sappia granche', per cui lasciamo cadere la

          cosa.

          :D



          k1


          Sì, come no. Infatti dimostri di saperne tanto tu
          di compressione, vero ? A parte la strafottenza
          non hai dimostrato
          altro.Beh uno che ritiene che le immagini jpeg non possano essere compresse, come hai fatto tu, dimostra davvero di non sapere una fava di algoritmi di compressione.
          • Anonimo scrive:
            Re: Un solo algoritmo ?
            - Scritto da:

            - Scritto da:


            Ma immagino che tu di compressione dei dati
            non


            ne sappia granche', per cui lasciamo cadere la


            cosa.


            :D





            k1





            Sì, come no. Infatti dimostri di saperne tanto
            tu

            di compressione, vero ? A parte la strafottenza

            non hai dimostrato

            altro.

            Beh uno che ritiene che le immagini jpeg non
            possano essere compresse, come hai fatto tu,
            dimostra davvero di non sapere una fava di
            algoritmi di
            compressione.Sei tu che dimostri di non saperne nulla. Evidentemente non hai idea di cosa sia il JPEG e come venga costruito il formato del file, visto che ritieni che vi sia tanta ridondanza in un JPEG da ottenere un 20% di compressione lossless. Peccato per te che non è così e se ti capita di vedere una cosa del genere dipende dal generatore del file JPEG che non comprime abbastanza e lascia molta ridondanza, ma per un errore del generatore che usi.
    • Anonimo scrive:
      Re: Un solo algoritmo ?
      - Scritto da:
      E come avrebbe ottenuto tanta compressione con un
      singolo algoritmo, lossless poi ? Vada per il
      testo, è normale, ma le immagini JPEG che sono
      già compresse ? Che fa, le decomprime e
      ricomprime lossy ?

      Se avesse inventato qualcosa di innovativo o
      rivoluzionario gruppi come MPEG lo avrebbero già
      usato ed il tizio non avrebbe perso tempo con
      Wikipedia.Devi considerare una cosa:1) Ci sono dei compattatori che riescono a comprimere di un buon 25% le immaginiJPEG già compresse. Uno (o forse l'unico)è lo Stuffit per Mac.2) I compattatori oggetto di questa newssono in realtà anche un 20% più efficientidel migliore LZMA (usato anche 7Zip),etc., ma sono molto lenti sia in compressione che in decompressione e richiedono quantitatividi memoria molto elevati (prossimi al gigabyte).(non che l'LZMA scherzi quanto a consumo dimemoria). E' chiaro che però potrebbero diventare lo standard di compressione losslesstra 10 anni, quando le CPU saranno molto piùveloci di adesso.
      • Anonimo scrive:
        Re: Un solo algoritmo ?
        - Scritto da:
        - Scritto da:


        E come avrebbe ottenuto tanta compressione con
        un

        singolo algoritmo, lossless poi ? Vada per il

        testo, è normale, ma le immagini JPEG che sono

        già compresse ? Che fa, le decomprime e

        ricomprime lossy ?



        Se avesse inventato qualcosa di innovativo o

        rivoluzionario gruppi come MPEG lo avrebbero già

        usato ed il tizio non avrebbe perso tempo con

        Wikipedia.

        Devi considerare una cosa:

        1) Ci sono dei compattatori che riescono a
        comprimere di un buon 25% le
        immagini
        JPEG già compresse. Uno (o forse l'unico)
        è lo Stuffit per Mac.Questo avviene perchè i programmi che generano i JPEG creano codice in cui resta ridondanza. Per questo un algoritmo lossless poi trova della ridondanza residua. Se il programma che genera le JPEG è scritto meglio non la comprimi praticamente mai oltre lo 0.5-1%
        2) I compattatori oggetto di questa news
        sono in realtà anche un 20% più efficienti
        del migliore LZMA (usato anche 7Zip),
        etc., ma sono molto lenti sia in compressione che
        in decompressione e richiedono
        quantitativi
        di memoria molto elevati (prossimi al gigabyte).
        (non che l'LZMA scherzi quanto a consumo di
        memoria). E' chiaro che però potrebbero diventare
        lo standard di compressione
        lossless
        tra 10 anni, quando le CPU saranno molto più
        veloci di adesso.Gli algoritmi lossless sono soggetti a limiti teorici attualmente non superabili, si basano tutti su delle formule che specificano tale limite teorico, per quanto siano complessi al momento nessuno ha trovato pubblicamente un sistema alternativo per la compressione lossless.
        • Anonimo scrive:
          Re: Un solo algoritmo ?

          Gli algoritmi lossless sono soggetti a limiti
          teorici attualmente non superabili, si basano
          tutti su delle formule che specificano tale
          limite teorico, per quanto siano complessi al
          momento nessuno ha trovato pubblicamente un
          sistema alternativo per la compressione
          lossless.Ma leggere l'articolo è così difficile? :D
          • Anonimo scrive:
            Re: Un solo algoritmo ?
            - Scritto da:

            Gli algoritmi lossless sono soggetti a limiti

            teorici attualmente non superabili, si basano

            tutti su delle formule che specificano tale

            limite teorico, per quanto siano complessi al

            momento nessuno ha trovato pubblicamente un

            sistema alternativo per la compressione

            lossless.
            Ma leggere l'articolo è così difficile? :D Ma starsene zitti invece di parlare di cosa non si sa come fai tu ed altri, no, eh ?
        • Anonimo scrive:
          Re: Un solo algoritmo ?

          Gli algoritmi lossless sono soggetti a limiti
          teorici attualmente non superabili, si basano
          tutti su delle formule che specificano tale
          limite teorico, per quanto siano complessi al
          momento nessuno ha trovato pubblicamente un
          sistema alternativo per la compressione
          lossless.Il limite che dici tu non sarà superabile mai! Il teorema di Shannon che penso conosci, dice che il limite della compressione di un messaggio è dato dalla sua entropia. Questo limite non sarà mai superabile. Messo in altro modo, se consideri una regione dello spazio, ad esempio un cubo di 1 cm di lato, la quantità di informazione che potrà contenere e data dall'entropia di quella regione. Anche se questo numero può essere grande quanto vuoi, è comunque una quantità finita non superabile.
          • Anonimo scrive:
            Re: Un solo algoritmo ?
            - Scritto da:


            Gli algoritmi lossless sono soggetti a limiti

            teorici attualmente non superabili, si basano

            tutti su delle formule che specificano tale

            limite teorico, per quanto siano complessi al

            momento nessuno ha trovato pubblicamente un

            sistema alternativo per la compressione

            lossless.

            Il limite che dici tu non sarà superabile mai! Il
            teorema di Shannon che penso conosci, dice che il
            limite della compressione di un messaggio è dato
            dalla sua entropia. Questo limite non sarà mai
            superabile. Messo in altro modo, se consideri una
            regione dello spazio, ad esempio un cubo di 1 cm
            di lato, la quantità di informazione che potrà
            contenere e data dall'entropia di quella regione.
            Anche se questo numero può essere grande quanto
            vuoi, è comunque una quantità finita non
            superabile.Il tuo esempio del cubo di spazio non regge già solo se consideri la possibilità di inserire informazioni nella luce sfruttando il dualismo particella/onda. Non parliamo poi di cose ancora più complesse come i quark, i quanti e così via che hanno comportamenti piuttosto anomali e stanno al limite delle regole fisiche e spesso trovi articoli scientifici in cui in pratica affermano cose che nella fisica non dovrebbe neppure essere ammesse. Quindi dire che il teorema di Shannon è un dogma invalicabile, che non c'è altro modo di comprimere lossless superando tale limite teorico è un'assurdità. Il fatto che non sia pubblicamente noto ora non significa che non esista un modo, altrimenti la ricerca scientifica non avrebbe senso di suo. La progettazione dei computer quantici renderà blandi i limiti dei sistemi binari odierni, tanti dogmi come Shannon attuali crolleranno pian piano o in fretta. Ciò che è certo è che ritenere che le formule sui libri siano verità assolute è un profondo errore, la matematica è un'opinione, nulla è scritto per sempre. Che tu creda in Dio o meno... solo chi conosce la vera forma della realtà può saperne le regole reali, ciò che i teoremi e le teorie umane dimostrano è solo una visione della realtà su cui si suppone certe regole valgano sempre, ma non è detto che sia così. Altrimenti non si sarebbe scoperto l'atomo...
          • Anonimo scrive:
            Re: Un solo algoritmo ?

            la matematica è un'opinione, nulla è scritto per
            sempre. Bella frase, dove l'hai letta? Su un bacio perugina? La matematica secondo i baci perugina, non mi sembra la fonte più attendibile da citare come fonte scientifica!
          • Anonimo scrive:
            Re: Un solo algoritmo ?
            - Scritto da:

            la matematica è un'opinione, nulla è scritto per

            sempre.

            Bella frase, dove l'hai letta? Su un bacio
            perugina? La matematica secondo i baci perugina,
            non mi sembra la fonte più attendibile da citare
            come fonte
            scientifica!Vivere nel medioevo con i suoi dogmi non ha nulla di scientifico. Chi crede che regole, formule e teorie siano dogmi non è diverso da chi insultata Einstein o derideva Copernico o Galilei
          • Anonimo scrive:
            Re: Un solo algoritmo ?
            - Scritto da:

            - Scritto da:


            la matematica è un'opinione, nulla è scritto
            per


            sempre.



            Bella frase, dove l'hai letta? Su un bacio

            perugina? La matematica secondo i baci perugina,

            non mi sembra la fonte più attendibile da citare

            come fonte

            scientifica!

            Vivere nel medioevo con i suoi dogmi non ha nulla
            di scientifico. Chi crede che regole, formule e
            teorie siano dogmi non è diverso da chi insultata
            Einstein o derideva Copernico o
            GalileiQuindi fammi capire sapientone, formule del tipo 2+2 nel sistema di numerazione decadico oggi fa 4, tra un po' di tempo scopriremo che fa 5 o 6 o 10000, dipende dalla nuova mente brillante, come la tua, che ci proporrà una soluzione diversa. Oppure visto che lo citi: E=mc^2, domani scopriremo che in realtà è E=mc^4 o qualche altra cosa.Ma dove hai studiato matematica all'università di bananas?
Chiudi i commenti