Tele2: urbane attive in tutta Italia

L'operatore annuncia il completamento delle attivazioni e la disponibilità su tutto il territorio italiano dei propri servizi, urbane comprese


Roma – Tra i primi operatori ad emergere nel corso del processo di liberalizzazione delle telecomunicazioni in Italia, Tele2 è stato uno di quelli che per più tempo si è tenuto alla larga dal mercato della telefonia residenziale urbana. Tempi passati, perché ora Tele2 offre le proprie urbane, interurbane e internazionali su tutto il territorio nazionale.

L’operatore ha infatti annunciato il completamento dell’attivazione degli ultimi distretti che portano così al 100 per cento della rete la copertura Tele2.

Le tariffe per le urbane con Tele2 rimangono quelle decise nei giorni scorsi, vale a dire (tariffe Iva inclusa)
0,062 euro di scatto alla risposta
0,015 euro per un minuto di conversazione in orario di punta (8-18,30, dal lunedì al venerdì)
0,009 euro per ogni minuto di conversazione in tutti gli altri orari.

Per la clientela residenziale è anche disponibile il piano tariffario “Senza limiti” che consente di chiamare in urbana e interurbana ad una tariffa di 0,01 euro, con un canone mensile di 5,55 euro e 0,062 euro di scatto alla risposta.

Il sito di Tele2 è disponibile qui .

La tua email sarà utilizzata per comunicarti se qualcuno risponde al tuo commento e non sarà pubblicato. Dichiari di avere preso visione e di accettare quanto previsto dalla informativa privacy

  • Anonimo scrive:
    L'entropia relativa e la riduzione multinomiale
    MA NON SPARIAMO CAZZATE!Se hanno trovato qualcuno che li finanzi sono contento per loro..
    • Anonimo scrive:
      Re: L'entropia relativa e la riduzione m
      il rumore creato da una sequenza di bit random non è standardizzabile o predicibile!
  • Anonimo scrive:
    fregare l'entropia
    imho, credo che ci sia un modo di superare i limiti della compressione lossless: non sarebbe difficile identificare stringhe di bit anche molto lunghe che ricorrono di frequente in un dato tipo di file (o anche in più tipi) e tradurle in pochissimi bit che non contengano la vera informazione ma che indirizzino il programma di compessione decompressione semplicemente a riscrivere tali informazioni, che registra nel suo codice e non nel file compresso. Per assurdo, se ho un .doc vuoto potrei comprimerlo con un rapporto di migliaia a 1, mi basta che il file compresso contenga: 1 un codice di qualche bit che mi dicano: questo era un file .doc 2 uno 0 che mi dica che il file è vuoto.Non sto parlando solo degli header e dei frames dei file, (spec. con la programmazione modulare che va di moda da qlche anno) vengono create sequenze di bit molto comuni in diversi file dello stesso tipo, (anche negli eseguibili e file già compressi, le bestie più dure), che potrebbero essere semplicemente sostituite da un codice di pochi bit che le descriva e ricostruite dal programma di compressione che dispone delle sequenze non compresse, senza che queste debbano essere inserite nel file compresso.Questo appesantirebbe spec. in termini di volume il programma di compressione decompressione, e il lavoro più lungo sarebbe certamente quello di individuare le sequenze che si ripropongono con una certa frequenza in ciascun tipo di file, inoltre andrebbe sicuramente affiancato da un algoritmo di compressione tradizionale.
  • Anonimo scrive:
    Non dormi più!!!!!!
    Piccoli brutti programmatori senza fede, come osate mettere in dubbio la parola di un tale mago?Forse osate mettere in dubbio anche i miei poteri magici? Guardate che vi trasformo tutti in maiali grufolanti!!!Anatema!! anatema!!! chi non ci crede non dorme più!!
  • Anonimo scrive:
    Misura Entropia
    Chi assicura che l'entropia delle sorgenti *REALI*non permetta la compressione di 100 a 1 ?Certo per varie sequenza di 100 bit è banale dimostrare che abbiano una entropia maggiore dell'1%Ma se le sequenze sono molto lunghe, la cosa cambia.Ad esempio se scrivo tutta la divina commedia in ascii, chi mi assicura che l'entropia del fileche ottengo sia maggiore del'1% ?Tutto dipende dalla conoscenza della sorgente *REALE*. Se per assurdo si riuscisse a modellare una sorgente che riproduce tutti i libri scritti dagli uomini, ieri oggi e domani, si potrebbecomprimere gli stessi con un numero limitato di bit (512 basterebbero?)Mi sembra che qui si dia per scontato che i dati*REALI* da comprimere abbiano una elevata entropia.
  • Anonimo scrive:
    Tecnica nota
    "...entità matematiche multidimensionali complesse"anni fa (ehhh, l'università...) il mio prof di Teoria dei Segnali lo chiamava "OPERATORE MIRACOLO":)byez
  • Anonimo scrive:
    Troppo scetticismo...fa male a tutti!!!
    Una volta (1993-94), se la memoria mi assiste, sulla rivista Computer Programming di Infomedia venne pubblicato un articolo sui sistemi di compressione di immagini, Jpeg, PNG etc. etc., ricordo pure che a quei tempi uno scellerato scenziato, sempre se non ricordo male del MIT, creò un algoritmo che con l'ausilio di una serie di trasformate riusciva a comprimere con tecnica frattale qualsiasi immagine bitmap in funzione matematica che a sua volta veniva compressa con tecniche lz..etc..etc. ed il risultato era che un immagine di qualsiasi dimensione veniva compressa e rigenerata così com'era senza nessuna perdita di qualità e soprattutto di informazione....e consumava uno spazio relativamente piccolo.Il problema era che la tecnica di compressione e decompressione richideve una quantità spropositata di calcolo e di tempo.Chissà se rispolverando qualche teoria e/o tecnica simile non si riesca ad ottenere un buon rapporto di compressione ???Molte volte si utilizzano tecniche già solide e commercialmente utili, tali da non spingere nessuno ad andare oltre.Mai essere scettici, e ricordiamoci che la matematica è solo uno strumento per rappresentare i numeri e non il contrario.
    • Anonimo scrive:
      Re: Troppo scetticismo...fa male a tutti!!!
      - Scritto da: atavachron
      Una volta (1993-94), se la memoria mi
      assiste, sulla rivista Computer Programming
      ...la memoria non ti assiste!
      • Anonimo scrive:
        Re: Troppo scetticismo...fa male a tutti!!!
        - Scritto da: pippo
        - Scritto da: atavachron

        Una volta (1993-94), se la memoria mi

        assiste, sulla rivista Computer
        Programming

        ...
        la memoria non ti assiste!
        Infatti..si trattava di Computer Programming N. 32 del Gennaio 1995, pag.13-22, tesi del dottorato di ricerca Phd. A. Jacquin allievo del prof. M. Barnsley del Giorgia Institute of Technology.RAPPORTO DI COMRESSIONE 1000:1 tramite "trasformazioni affini contrattive".Non è colpa mia se non utilizzi il mezzo più vecchio della cultura "la carta".
    • Anonimo scrive:
      Re: Troppo scetticismo...fa male a tutti!!!
      - Scritto da: atavachron
      e ricordiamoci che la
      matematica è solo uno strumento per
      rappresentare i numeri e non il contrario.questo e' il tuo parere personale... *molto* personale!!!La matematica e' l'unico strumento umano per scoprire delle verita'!
      • Anonimo scrive:
        Re: Troppo scetticismo...fa male a tutti!!!

        La matematica e' l'unico strumento umano per
        scoprire delle verita'! E in tutto questo dove lo mettiamo il teorema di Godel?? Il problema e' la matematica non ti permette di scoprire _tutte_ le verita', giusto?il Conte
        • Anonimo scrive:
          Re: Troppo scetticismo...fa male a tutti!!!
          - Scritto da: CountZero

          La matematica e' l'unico strumento umano
          per

          scoprire delle verita'!


          E in tutto questo dove lo mettiamo il
          teorema di Godel??
          quello sulla esistenza di Dio?? non ne ho parlato per paura di flame...
          Il problema e' la matematica non ti permette
          di scoprire _tutte_ le verita', giusto?Meglio non parlarne qui... echelon ci spia... :-)p.s. commento personale (non aprire flame)Il problema non e' l'esistenza di Dio... ma cosa c'entra con la tua vita...
          • Anonimo scrive:
            Re: Troppo scetticismo...fa male a tutti!!!

            quello sulla esistenza di Dio?? non ne ho
            parlato per paura di flame...Oddio mi prendi in contropiede, non e' che sia un Dio (parlavi di questo? ^__^) sull'argomento ma mi riferivo al teorema che ha demolito i "Principia Matematica" (lo so e' detto da cani ma come ho detto non me ne intendo molto)
            Meglio non parlarne qui... echelon ci
            spia... :-)LOL
            p.s. commento personale (non aprire flame)
            Il problema non e' l'esistenza di Dio... ma
            cosa c'entra con la tua vita...Mmmm, bella frase penso te la rubero'il Conte
          • Anonimo scrive:
            Re: Troppo scetticismo...fa male a tutti!!!
            - Scritto da: CountZero

            quello sulla esistenza di Dio?? non ne
            ho
            parlato per paura di flame...

            Oddio mi prendi in contropiede, non e' che
            sia un Dio (parlavi di questo? ^__^)No, intendeva riferirsi alla prova ontologica, una delle ultime produzioni di Kurt Godel. Alquanto delirante, ma formalmente interessante.
            sull'argomento ma mi riferivo al teorema che
            ha demolito i "Principia Matematica" (lo so
            e' detto da cani ma come ho detto non me ne
            intendo molto)Teoremi di incompletezza, quelli che hanno demolito tutto il bel castello di carte che Hilbert s'era messo in testa di creare con la razionalizzazione. In realtà, più che demolire, hanno semplicemente tracciato dei confini perfettamente delineati, imprimendo una nuova direzione di sviluppo e donando una consapevolezza che è impensabile in qualsiasi altro settore scientifico, che ha mutato definitivamente ed una tantum il modo di considerarsi dell'attività matematica in genere. La quale, in ogni caso, contrariamente a qualsiasi altra scienza, continua a crescere secondo il modello dell'ameba, inglobando ed adattandosi ad ogni novità, anzichè procedere per scossoni, smentite clamorose, revisioni fondamentali: le famose rivoluzioni scientifiche di Kuhn, detto in due parole, di cui la fisica moderna è un esempio clamoroso.
          • Anonimo scrive:
            Re: Troppo scetticismo...fa male a tutti!!!

            No, intendeva riferirsi alla prova
            ontologica, una delle ultime produzioni di
            Kurt Godel. Alquanto delirante, ma
            formalmente interessante.wow sembra interessante, sapresti giusto dove indirizzarmi per informarmi un po'? (qualcosa che non sia ne matematica allo stato puro ma neanche una spiegazione all'acqua di rose) Grazieil Conte
          • Anonimo scrive:
            Re: Troppo scetticismo...fa male a tutti!!!
            - Scritto da: CountZero

            wow sembra interessante, sapresti giusto
            dove indirizzarmi per informarmi un po'?
            (qualcosa che non sia ne matematica allo
            stato puro ma neanche una spiegazione
            all'acqua di rose) Prova con questo:http://www.vialattea.net/odifreddi/anselmo.pdf
        • Anonimo scrive:
          Re: Troppo scetticismo...fa male a tutti!!!
          - Scritto da: CountZero


          La matematica e' l'unico strumento umano
          per

          scoprire delle verita'!


          E in tutto questo dove lo mettiamo il
          teorema di Godel??


          Il problema e' la matematica non ti permette
          di scoprire _tutte_ le verita', giusto?Ho sempre pensato che la matematica non permettesse di scoprire nulla, ma solo dimostrare, secondo una specifica logica formale scelta, che una proposizione è vera o falsa rispetto a un insieme di assiomi non contraddittorio.Mah, magari mi sbagliavo...
          • Anonimo scrive:
            Re: Troppo scetticismo...fa male a tutti!!!

            Ho sempre pensato che la matematica non
            permettesse di scoprire nulla, ma solo
            dimostrare, secondo una specifica logica
            formale scelta, che una proposizione è vera
            o falsa rispetto a un insieme di assiomi non
            contraddittorio.
            Mah, magari mi sbagliavo...Secondo me sono sfumature di linguaggio, in fin dei conti prima di una dimostrazione hai un'asserzione che potrebbe essere vera, mentre se dimostri "scopri" la verita' o meno di tale asserzione (verita' rispetto alla logica e agli assiomi scelti)il Conte
      • Anonimo scrive:
        Re: Troppo scetticismo...fa male a tutti!!!
        - Scritto da: apaella


        - Scritto da: atavachron

        e ricordiamoci che la

        matematica è solo uno strumento per

        rappresentare i numeri e non il contrario.

        questo e' il tuo parere personale... *molto*
        personale!!!

        La matematica e' l'unico strumento umano per
        scoprire delle verita'!Infatti..si trattava di Computer Programming N. 32 del Gennaio 1995, pag.13-22, tesi del dottorato di ricerca Phd. A. Jacquin allievo del prof. M. Barnsley del Giorgia Institute of Technology.RAPPORTO DI COMRESSIONE 1000:1 tramite "trasformazioni affini contrattive".Prova a confutare questo.
  • Anonimo scrive:
    Ciarlatani
    Chi afferma di aver superato i limiti della teoria dell' informazione di Shannon è un ciarlatano al pari di chi affermasse di aver inventato un motore che viola il principio di conservazione dell' energia.Anzi peggio, perchè, mentre per l' energia nessuno può escludere che in futuro si possa scoprire un fenomeno fisico che lo viola, il teorema di Shannon è un fatto puramente matematico combinatorio.Un algoritmo di compressione non è altro che un sistema che codifica in modo univoco, sequenze di bit in ingresso in sequenze, possibilmente più corte, di bit in uscita. Supponiamo allora di voler costruire un algoritmo che comprima di un bit le sequenze a cui è applicato. E' facile capire che questo non può esistere, infatti ci sono 256 sequenze di 8 bit e solo 128 di 7 bit quindi solo 128 sequenze di 8 bit potranno essere codificate con 7 bit le altre 128 dovranno essere codificate con 8 o più bit. Se poi si volesse fare in modo che alcune sequenza di 8 bit siano codificate con 6 bit, si ridurebbe il numero di di sequenze disponibili per codificare le sequenze di 7 bit e necessariamente alcune di queste dovranno essere codificate con più di 7 bit.In generale quindi qualsiasi compressore ridurrà la lunghezza di alcune sequenze mentre aumenterà quella di altre.Con quale principio si sceglieranno le sequenze da comprimere?Il principio è lo stesso del codice morse: si sceglie di codificare con lunghezza minore i file che capitano più di frequente e con lunghezza maggiore quelli più infrequenti.Ad esempio nel caso di testi, sono più frequenti quelli in cui dopo una consonante compare una vocale, per cui questi verranno compressi maggiormente.Anzichè ragionare, come ho fatto prima, sul numero di sequenze che possono essere codificate con sequenze più corte, Shannon ragiona sulla lunghezza media delle sequenze di codifica, facendo una media pesata con la probabilità con la quale si presentano le sequenze da codificare. E dimostra che, date le probabilità delle sequenze in ingresso, questa lunghezza media non può essere inferiore ad un certo valore.Il motivo è sempre lo stesso: non ci sono abbastanza sequenze "corte" per codificare univocamente tutte le sequenze "lunghe".In generale quindi l' efficienza di un compressore dipende dalla conoscenza del tipo di dati da comprimere, perchè bisogna conoscere quali sono le probabilità con cui si presentano le varie sequenze di bit. Per cui, ad esempio, sapere se le sequenze di bit da comprimere rappresentano un testo oppure un video ci porta a sapere quali sono le sequenze più frequenti che ci capiteranno e che dovranno essere compresse di più.Purtroppo sembra che questo principio generale sia stato un po' dimenticato, anche da molti ricercatori professionisti. Infatti un parte della ricerca sugli algoritmi di compressione si è orientata verso compressori "universali", che prescindono cioè dalla conoscenza dei dati da comprimere. Il problema è che questi, per valutare l' efficienza, utilizzano dei criteri che hanno poco significato pratico: ad esempio parlano sempre di raggiungere il limite di shannon asintoticamete, cioè al tendere all' infinito della lunghezza dei dati da comprimere.
  • Anonimo scrive:
    BHA!
    Ma non vi sembra un pò troppino 1:10 senza perdita di qualità?Vorrebbe dire che fino ad ora nessuno ci ha mai capito un C**** di informatica!
    • Anonimo scrive:
      Re: BHA!
      Piu che altro di matematica ...
      • Anonimo scrive:
        Re: BHA!
        - Scritto da: Catzone
        Piu che altro di matematica ... piu che altro e' il fatto che una stima a spanne (1:10 e' troppo...) non e' molto scientifica :-PProvi (lui) a prendere un testo con solo lettere aaaaaaaaaaaaa o una immagine perfettamente bianca (o nera o rossa o verde...) e poi comprima (sempre lui)...Vedra' (sempre e solo lui) che la compressione puo anche essere di 1:10000000000000 senza perdita...ah la tauromachia....
        • Anonimo scrive:
          Re: BHA!
          Sono daccordo,ma questo succede solo con alcuni tipi di daticome ad esempio nei files di testo e nelle immagini non compresse, niente di nuovo, questo tipo compressione già esiste, quella invece descritta come 'ricorsiva' e 'multidimensionale' sembrerebbe che prescinda dal tipo di dati, ed è questo che proprio non mi convince! :)
          • Anonimo scrive:
            Re: BHA!
            - Scritto da: RKX
            quella
            invece descritta come 'ricorsiva' e
            'multidimensionale'
            sembrerebbe che prescinda dal tipo di dati,
            ed è questo che proprio non mi convince! :)Apunto, e' impossibile trovare l'algoritmo di compressione ottimo a prescindere dal tipo di dati... ma non tutti sembrano averlo capito :-(ciao!!
  • Anonimo scrive:
    Limiti alla compressione lossless
    Non per fare il saputello pero' volevo sottolineare un fatto essenziale: matematicamente è stato dimostrato (non è così difficile!!!) che non è possibile comprimere in modo lossless una sequenza di simboli (ad es. un testo) "spendendo" un numero di bit per simbolo inferiore all'entropia della sorgente. Chiunque affermi di riuscire a codificare senza perdite un file con un rate ancora più spinto dice solo stronzate !!!
    • Anonimo scrive:
      Re: Limiti alla compressione lossless
      Grande nathan :) ....
    • Anonimo scrive:
      Re: Limiti alla compressione lossless
      Esatto: Mr. Shannon docet!Al limite si può spingere un po' più in là la compressione considerando alcune peculiarità della sorgente che la discostano da una sorgente "gaussiana". Mi sembra proceda così il RAR.
      • Anonimo scrive:
        Re: Limiti alla compressione lossless
        Non ti puoi spingere più in là del teorema di Shannon. I compilatori attuali anzi arrancano per riuscire ad avvicinarsi il più possibile ;-)
    • Anonimo scrive:
      Re: Limiti alla compressione lossless
      una scoperta innovativa, è tale proprio per il fatto di essere in grado di dimostrare qualcosa che prima si pensava non si potesse raggiungere.
      • Anonimo scrive:
        Re: Limiti alla compressione lossless
        - Scritto da: win
        una scoperta innovativa, è tale proprio per
        il fatto di essere in grado di dimostrare
        qualcosa che prima si pensava non si potesse
        raggiungere....una stronzata, invece, è pensare di dimostrare qualcosa che prima si è dimostrato impossibile da raggiungere.
      • Anonimo scrive:
        Re: Limiti alla compressione lossless

        una scoperta innovativa, è tale proprio per
        il fatto di essere in grado di dimostrare
        qualcosa che prima si pensava non si potesse
        raggiungere.No, no, non creiamo false aspettative...nel campo della codifica non c'e' margine di dubbio: la comunità di ricercatori sa per certo che è IMPOSSIBILE comprimere senza perdite un file con un rate inferiore all'entropia...non esiste un margine per eventuali mirabolanti scoperte.
        • Anonimo scrive:
          Re: Limiti alla compressione lossless
          - Scritto da: Nathan76


          una scoperta innovativa, è tale proprio
          per

          il fatto di essere in grado di dimostrare

          qualcosa che prima si pensava non si
          potesse

          raggiungere.

          No, no, non creiamo false aspettative...nel
          campo della codifica non c'e' margine di
          dubbio: la comunità di ricercatori sa per
          certo che è IMPOSSIBILE comprimere senza
          perdite un file con un rate inferiore
          all'entropia...non esiste un margine per
          eventuali mirabolanti scoperte.aggiungo che negli anni 90' una societa' americana giuro' di aver fatto una cosa simile (comprimere dati compressi, riuscendo a ridurne moltissimo le dimensioni) e di essere pronta a depositare il brevetto della scoperta, cosa che naturalmente non avvenne mai. Messa sotto pressione continuo' a rimandare senza mai smentire la cosa. Un'altra societa' invece ha dichiarato un annetto fa di aver prodotto il primo motore a "moto perpetuo" (che violerebbe il secondo principio della temrodinamica), insomma di minc*iate se ne sparano continuamente, l'importante e' conservare un certo spirito critico e riderci su
      • Anonimo scrive:
        Re: Limiti alla compressione lossless
        In campo matematico le cose funzionano diversamente: se e' stato dimostrato matematicamente (non empiricamente) un qualcosa,non c'e' possibilita' che la cosa cambi, a menodi non cambiare le basi della matematica, cosaalquanto improbabile.Non penso ci sia nella storia della matematicaun solo teorema che sia poi stato smentito.ciao,Stefano- Scritto da: win
        una scoperta innovativa, è tale proprio per
        il fatto di essere in grado di dimostrare
        qualcosa che prima si pensava non si potesse
        raggiungere.
        • Anonimo scrive:
          Re: Limiti alla compressione lossless
          - Scritto da: ste
          Non penso ci sia nella storia della
          matematica
          un solo teorema che sia poi stato smentito.In realtà non e' cosi semplice... (nel caso specifico si)Una dimostrazione non e' cosi semplice da "dimostrare"... cioe' puo esserci un errore (anche piccolo) che invalida la dimostrazione, e' successo per esempio nella dimostrazione del teorema di Fermat: dopo mesi e' saltata fuori una falla che minava la dimostrazione.Shannon e' stato controllato miliardi di volte (e poi e' pure un ca##o di dimostrazione :-)ciao
          • Anonimo scrive:
            Re: Limiti alla compressione lossless

            Una dimostrazione non e' cosi semplice da
            "dimostrare"... cioe' puo esserci un errore
            (anche piccolo) che invalida la
            dimostrazione, e' successo per esempio nella
            dimostrazione del teorema di Fermat: dopo
            mesi e' saltata fuori una falla che minava
            la dimostrazione.Sì, ma la dimostrazione del Fermat son 250 pagine incasinatissime, e cmq poi il problema è stato risolto. ;)
          • Anonimo scrive:
            Re: Limiti alla compressione lossless

            Sì, ma la dimostrazione del Fermat son 250
            pagine incasinatissime, e cmq poi il
            problema è stato risolto. ;A questo punto mi sembra anche giusto citare l'autore della dimostrazione più "epica" nella storia della matematica: il grande Andrew Wiles.
          • Anonimo scrive:
            Re: Limiti alla compressione lossless
            - Scritto da: Nathan76


            Sì, ma la dimostrazione del Fermat son 250

            pagine incasinatissime, e cmq poi il

            problema è stato risolto. ;

            A questo punto mi sembra anche giusto citare
            l'autore della dimostrazione più "epica"
            nella storia della matematica: il grande
            Andrew Wiles.
            Non esageriamo... lui e' l'ultimo anello di una catena piu grande. I media ne hanno fatto un eroe ma il fatto che per mesi e mesi non si sia fatto vivo prima della dimostrazione e il fatto che nessuno nella comunita' scientifica ne abbia sentito la mancanza la dice lunga...Per carita' ha fatto un grosso lavoro ma...
          • Anonimo scrive:
            Re: Limiti alla compressione lossless
            - Scritto da: apaella
            - Scritto da: Nathan76




            Sì, ma la dimostrazione del Fermat son
            250


            pagine incasinatissime, e cmq poi il


            problema è stato risolto. ;



            A questo punto mi sembra anche giusto
            citare

            l'autore della dimostrazione più "epica"

            nella storia della matematica: il grande

            Andrew Wiles.



            Non esageriamo... lui e' l'ultimo anello di
            una catena piu grande. I media ne hanno
            fatto un eroe ma il fatto che per mesi e
            mesi non si sia fatto vivo prima della
            dimostrazione e il fatto che nessuno nella
            comunita' scientifica ne abbia sentito la
            mancanza la dice lunga...
            Per carita' ha fatto un grosso lavoro ma...E no cacchio, ha lavorato per anni (sette se non sbaglio... molto biblico!) da solo e all'oscuro pure dei suoi colleghi. S'è arrangiato quasi in tutto, ha costruito tecniche dimostrative nuove e soprattutto ha aperto una nuova branchia della matematica. Il collegamento tra le forme modulari e le funzioni ellittiche prima di lui era solo un'ipotesi. Diciamo che la dimostrazione dell'ultimo di Fermat in questo contesto è solo una piccola conseguenza.
          • Anonimo scrive:
            Re: Limiti alla compressione lossless
            - Scritto da: Fede
            E no cacchio, ha lavorato per anni (sette se
            non sbaglio... molto biblico!) da solo e
            all'oscuro pure dei suoi colleghi. ok
            S'è
            arrangiato quasi in tutto, ha costruito
            tecniche dimostrative nuove e soprattutto ha
            aperto una nuova branchia della matematica.branca :-)comunque lui non ha dimostrato il teorema, ha chiuso un cerchio aperto da altri...
            Il collegamento tra le forme modulari e le
            funzioni ellittiche prima di lui era solo
            un'ipotesi.si ma chi gli ha detto che Fermatr c'entrava con le funzioni ellittiche?
            Diciamo che la dimostrazione
            dell'ultimo di Fermat in questo contesto è
            solo una piccola conseguenza.sono daccordo, non ha dimostrato Fermat...e' un grande, non dico il contrario ma dire che e' stato piu importante di Liebnitz (?!?) o addirittura Pitagora mi sembra troppo!!!
          • Anonimo scrive:
            Re: Limiti alla compressione lossless
            - Scritto da: apaella


            - Scritto da: Fede


            E no cacchio, ha lavorato per anni (sette
            se

            non sbaglio... molto biblico!) da solo e

            all'oscuro pure dei suoi colleghi.

            ok


            S'è

            arrangiato quasi in tutto, ha costruito

            tecniche dimostrative nuove e soprattutto
            ha

            aperto una nuova branchia della
            matematica.

            branca :-)oops
            comunque lui non ha dimostrato il teorema,
            ha chiuso un cerchio aperto da altri... ha dimostrato quellq che prima era una congettura

            Il collegamento tra le forme modulari e le

            funzioni ellittiche prima di lui era solo

            un'ipotesi.

            si ma chi gli ha detto che Fermatr c'entrava
            con le funzioni ellittiche?Non ricordo il nome. Cmq l'affermazione era del tipo se fosse vero che esiste questa dualità allora Fermat si trasforma in una certa funzione ellittica ed è dimostrato perchè la forma modulare collegata ha talune proprietà.

            Diciamo che la dimostrazione

            dell'ultimo di Fermat in questo contesto è

            solo una piccola conseguenza.

            sono daccordo, non ha dimostrato Fermat...

            e' un grande, non dico il contrario ma dire
            che e' stato piu importante di Liebnitz
            (?!?) o addirittura Pitagora mi sembra
            troppo!!!Già... aggiungerei anche Gauss: il mio prof di analisi si inginocchiava ogni volta che lo pronunciava. ;)
          • Anonimo scrive:
            Re: Limiti alla compressione lossless
            - Scritto da: Fede

            comunque lui non ha dimostrato il teorema,

            ha chiuso un cerchio aperto da altri...

            ha dimostrato quellq che prima era una
            congetturaappunto, la congettura di taniyame-miura (non si scrive cosi' ma sono a lavoro e a memoria...), che diceva qualcosa che non c'entrava con il teorema. Poi un tizio ha detto che il teorema di Fermat poteva essere posto in una forma tale da rientrare nella congettura...come vedi ha "solo" fatto l'ultimo passo (in matematica e' sempre cosi)

            si ma chi gli ha detto che Fermatr
            c'entrava

            con le funzioni ellittiche?

            Non ricordo il nome. Cmq l'affermazione era
            del tipo se fosse vero che esiste questa
            dualità allora Fermat si trasforma in unaAppunto, glielo hanno detto
            Già... aggiungerei anche Gauss: il mio prof
            di analisi si inginocchiava ogni volta che
            lo pronunciava. ;)d'accodissimo :-)
          • Anonimo scrive:
            Re: Limiti alla compressione lossless
            - Scritto da: Fede


            Una dimostrazione non e' cosi semplice da

            "dimostrare"... cioe' puo esserci un
            errore
            Sì, ma la dimostrazione del Fermat son 250
            pagine incasinatissime, e cmq poi il
            problema è stato risolto. ;)Infatti ho scritto:# Shannon e' stato controllato miliardi di volte # (e poi e' pure un ca##o di dimostrazione :-)ciap
    • Anonimo scrive:
      Re: Limiti alla compressione lossless
      Ok, ma come fai a calcolare l'entropia di una sequenza di bit?
      • Anonimo scrive:
        Re: Limiti alla compressione lossless
        - Scritto da: woland
        Ok, ma come fai a calcolare l'entropia di
        una sequenza di bit? Apri il dizionario e cerca entropia.
      • Anonimo scrive:
        Re: Limiti alla compressione lossless

        Ok, ma come fai a calcolare l'entropia di
        una sequenza di bit? L'entropia è formalmente definita come l'aspettazione della informazione, dove per informazione associata ad un simbolo intendiamo il valore restituito dalla funzione di Hartman che prende in ingresso la probabilità del simbolo stesso.Comunque se ti interessano i dettagli matematici puoi pure contattarmi via mail (bloodhell@tiscalinet.it)
    • Anonimo scrive:
      Re: Limiti alla compressione lossless
      Mmmm... è vero, però... (vado a spanne, correggetemi pure se sbaglio (senza insultarmi, please :))Stringa A ha entropia 1Stringa B ha entropia 1Stringa A^B ha entropia
  • Anonimo scrive:
    encodare?!?

    ...quelle di encodare queste stringhe...Encodare?!? Per favore, Punto Informatico, tusei un sito serio, non farmi venire dubbisulla capacita' di scrivere degli articolistie sulla loro pigrizia lessicale.ciao,Stefano
    • Anonimo scrive:
      Re: encodare?!?
      - Scritto da: ste

      ...quelle di encodare queste stringhe...

      Encodare?!? Per favore, Punto Informatico, tu
      sei un sito serio, non farmi venire dubbi
      sulla capacita' di scrivere degli articolisti
      e sulla loro pigrizia lessicale.

      ciao,
      StefanoGià che ci siamo, suggeriamo anche la parola italiana di pari significato : CODIFICARE.PI, per favore, ci sono già troppi storpiatori della nostra povera lingua. Almeno, quando le parole corrette esistono, cerchiamo di usarle, grazie
      • Anonimo scrive:
        Re: encodare?!?
        - Scritto da: Umberto


        - Scritto da: ste


        ...quelle di encodare queste stringhe...



        Encodare?!?
        Già che ci siamo, suggeriamo anche la parola
        italiana di pari significato : CODIFICARE. vabe' allora mettiamo anche il link all'accademia della crusca in prima pagina, encodare a me sta bene in un articolo tecnico, avrei storto (leggermente) il naso solo con "forwardare" e poco altro
  • Anonimo scrive:
    Ah...ps
    "entità matematiche multidimensionali complesse"In questa frase si trova la prova che prendono per il c*** :))Caro Punto Informatico...ci siete cascati anche voi ;)
    • Anonimo scrive:
      Re: Ah...ps
      - Scritto da: Tex......Che bel nick .......Solo che ogni tanto mi capita di chiedermi quando ho scritto certi messaggi .....
  • Anonimo scrive:
    A volte ritornano.
    Chi si e' interessato + o - di tecniche di compressione e ha visto l'evoluzione di questo mondo sapra' che di tanto in tanto saltano fuori societa' od individui che prometto compressioni ricorsive. Il modus operandi e' sempre lo stesso: si fa l'annuncio di una fantasmagorica tecnologia che ovviamente e' sotto sviluppo si tira un po la corda e poi....tutto cade nel nulla....perche? semplice...il disordine lo puoi mettere in ordine...ma non puoi mettere ordine all'ordine!La compressione ricorsiva e' concettualmente impossibile in quanto, per esempio, se ho la sequenza di bit 10101010111110000 la riduco in 11101011 poi in virtu del nostro algoritmo miracoloso la riduco in 10 e poi anche in 0 come faccio poi a riottenere 10101010111110000? semplice non posso...perche il messaggio a quel punto ha perso l'informazione e nessun voodoo informatico puo ritirare fuori quell'informazione originale!!
    • Anonimo scrive:
      Re: A volte ritornano.
      - Scritto da: Tex
      Chi si e' interessato + o - di tecniche di
      compressione e ha visto l'evoluzione di
      questo mondo sapra' che di tanto in tanto
      saltano fuori societa' od individui che
      prometto compressioni ricorsive. Il modus
      operandi e' sempre lo stesso: si fa
      l'annuncio di una fantasmagorica tecnologia
      che ovviamente e' sotto sviluppo si tira un
      po la corda e poi....tutto cade nel
      nulla....perche? Sono quasi d'accordo con te.Anch'io penso che, tramite la compressione basata sui principi del .ZIP sia praticamente il limite delle compressioni non-lossyInfatti, l'algoritmo riesce a discriminare tutte le sequenze più ricorrenti in quanto + una stringa è ricorrente, sarà associata ad una stringa con meno bit.Però.... (ma queste sono mie personali confabulazioni personali):- Se ci fosse una "pre-analisi" dei dati, in modo da verificare quante sequenze non "matchano" le altre a maggior frequanza solo per un esiguo numero di bit, forse il risultato di una trasformazione di questa stringa in una che è presente più frequentemente (+ le informazioni per ripristinarla) potrebbero portare ad una riduzione dei bit che non a compreimere queste "quasi-sequenza" in stringhe minori.- Effettivamente, può essere che sia più conveniente scompattare un file in "blocchi", in modo da massimizzare l'effetto zip (tipo sui testi)... boh.... vedremo
      • Anonimo scrive:
        Re: A volte ritornano.
        Hummm, a 30 anni la mia memoria minata dall'alzheimer :P ricorda che un sistema come quello proposto da Mcfc "a correzione dell'errore dell'algoritmo di compressione" era gia' stato provato.C'era una societa' che disse di aver trovato un algoritmo per la compressione di immagini, che fungeva piu' o meno cosi', che comprimeva nell'ordine di 10.000 a 1. (10k che diventano 1 byte? heheheh)Ovviamente poi e' evaporata ...Pero' queste storie sono interessanti; se si concedesse ai compressori attuali molto piu' tempo per creare un dizionario, sono certo che migliorerebbero di almeno un 10% le loro prestazioni.
        • Anonimo scrive:
          Re: A volte ritornano.
          - Scritto da: Catzone
          C'era una societa' che disse di aver trovato
          un algoritmo per la compressione di
          immagini, che fungeva piu' o meno cosi', che
          comprimeva nell'ordine di 10.000 a 1. (10k
          che diventano 1 byte? heheheh)L'ho realizzato anche io... (sono serio)
      • Anonimo scrive:
        Re: A volte ritornano.
        Non sono d'accordo quando dici che lo ZIP e' il massimo ottenibile. Basta un esempio: immagina di voler comprimere e trasmettere l'immagine di un frattale (per esempio quello arcifamoso di Mandelbrot). Non hai bisogno di comprimere alcuna sequenza di pixel, ti basta trasmettere (compressi, se vuoi) i coefficienti dell'equazione che descrive quell'oggetto matematico, piu' un simbolo per identificare quale algoritmo usare in ricezione (quello di Mandelbrot, appunto). Lo ZIP, che implementa tra le sue tecniche anche l'algoritmo di Hamming che hai descritto, e' efficacissimo su stringhe di bit, molto meno sulle matrici. Questo perche' esiste un compromesso tra prestazioni, tempo di calcolo e capacita' di memoria del compressore.Di fatto, per comprimere rapidamente, non puoi ad esempio analizzare la frequenza statistica di tutte le stringhe di lunghezza da 1 a N, con N arbitrariamente grande. Si tende quindi a spezzare il file in stringhe sufficientemente piccole, lavorando di compressione su di quelle. In questo modo pero' possono sfuggire strutture che hanno una regolarita' (o definite da un algoritmo) che si sviluppano su piu' dimensioni, come in un'immagine. Insomma, la preanalisi di cui parli serve, ma non e' per nulla facile!Resto comunque scettico come gli altri quando sento annunci pomposi non corredati da pubblicazioni scientifiche...ciao!
  • Anonimo scrive:
    Se fosse il primo aprile
    Saprei cosa pensare.Avendo una cosa del genere, e potendo ridurre l'occupazione di banda dei dati digitali un fattore cosi' elevato (bisogna vedere con quali costi computazionali) questi signori potrebbero diventare smodatamente benestanti.
    • Anonimo scrive:
      Re: Se fosse il primo aprile
      - Scritto da: Burp!
      (bisogna
      vedere con quali costi computazionali)Sicuramente elevatissimi: l'idea è veramente ottima, e spero proprio che questi signori ce la facciano, ma ho paura che algoritmi così complessi richiederanno potenze di calcolo sproporzionate: pensiamo solo a quanto impiega l'ACE, il + performanet dei formati al momento, a comprimerere file voluminosi.... e siamo ben lontani dai ratio previsti dal nuovo formato...
      • Anonimo scrive:
        Re: Se fosse il primo aprile
        - Scritto da: Zane


        - Scritto da: Burp!

        (bisogna

        vedere con quali costi computazionali)

        Sicuramente elevatissimi: l'idea è veramente
        ottima, e spero proprio che questi signori
        ce la facciano, ma ho paura che algoritmi
        così complessi richiederanno potenze di
        calcolo sproporzionate: pensiamo solo a
        quanto impiega l'ACE, il + performanet dei
        formati al momento, a comprimerere file
        voluminosi.... e siamo ben lontani dai ratio
        previsti dal nuovo formato...parliamone... se si tratta di algoritimi basati su teorie matematiche del tutto nuove qualche dubbio su quello che hai detto ce l'avrei!
      • Anonimo scrive:
        Re: Se fosse il primo aprile
        Beh, se funzionasse veramente, magari in futuro potrebbero implementarlo direttamente via hardware...
  • Anonimo scrive:
    Mi ricorda...
    ...il compressore frattale che girava una decina di anni fa nelle BBS fidoNet :))))
    • Anonimo scrive:
      Re: Mi ricorda...
      Si, NABOB!Favoloso, dopo sequenze di squashing, compressing, shrinking, etc... alla fine il file diveniva lungo... 0 byte! :-DD
    • Anonimo scrive:
      Re: Mi ricorda...
      - Scritto da: BeRToZ
      ...il compressore frattale che girava una
      decina di anni fa nelle BBS fidoNet :))))Quello giapponese che riusciva a scompattare il file solo se non ne avevi cancellato la versione originale? ;-)
      • Anonimo scrive:
        Re: Mi ricorda...

        Quello giapponese che riusciva a scompattare
        il file solo se non ne avevi cancellato la
        versione originale? ;-)OWL 1.0
  • Anonimo scrive:
    OLLLE'
    tutto cio' puzza
  • Anonimo scrive:
    l'ultracompressore
    nessuno sara' mai potente come lziphttp://lzip.sourceforge.net
    • Anonimo scrive:
      Re: l'ultracompressore
      Sì beh, bello.. è un programma basato su algoritmi di compressione lossy!!!Prova a comprimerci un programma e a farlo andare dopo averlo decompresso! Vedrai gli errori che fioccano (sempre che parta).Altrochè vaccate nelle FAQ sul sito!La differenza fra lossy e no è tutt'altro che questione di "tradizionalismo" informatico!
      • Anonimo scrive:
        Re: l'ultracompressore
        - Scritto da: Upanisad
        Sì beh, bello.. è un programma basato su
        algoritmi di compressione lossy!!!Salame, e' una presa per i fondelli.Dovevi leggere qualcosa in piu' e non fermarti 15 secondi :-)It utilizes a two-pass bit-sieve to first remove all unimportant data from the data set. Lzip implements this quiet effectively by eliminating all of the 0's. It then sorts the remaining bits into increasing order, and begins searching for patterns. The number of passes in this search is set to (10-N) in lzip, where N is the numeric command-line argument we've been telling you about. For every pattern of length (10/N) found in the data set, the algorithm makes a mark in its hash table. By keeping the hash table small, we can reduce memory overhead. Lzip uses a two-entry hash table. Then data in this table is then plotted in three dimensions, and a discrete cosine transform transforms it into frequency and amplitude data. This data is filtered for sounds that are beyond the range of the human ear, and the result is transformed back (via an indiscrete cosine) into the hash table, in random order. Troppo forte :-)
        • Anonimo scrive:
          Re: l'ultracompressore
          chi ha scoperto che cosa è veramente il finto eseguibile lzip ?Veramente da ridere !!!(Tip mv lzip lzip.jpg)
          • Anonimo scrive:
            Re: l'ultracompressore
            - Scritto da: diesis
            chi ha scoperto che cosa è veramente il
            finto eseguibile lzip ?
            Veramente da ridere !!!
            (Tip mv lzip lzip.jpg)Ma qualcuno l'ha letta la licenza ... :-)http://lzip.sourceforge.net/license.htmlDevo confessare che la prima volta che l'ho visto non ho letto molto attentamente e me lo sono scaricato per compilarlo .... da autentico utonto linux .... :-(
          • Anonimo scrive:
            Re: l'ultracompressore
            Semplicemente mitico!il Conte
    • Anonimo scrive:
      Re: l'ultracompressore

      nessuno sara' mai potente come lzip

      http://lzip.sourceforge.net
      Per paradossale che possa essere, l'ultima news della pagina in oggetto ha come data proprio il 1° aprile!
    • Anonimo scrive:
      Re: l'ultracompressore
      FAQ7. Why don't more people use lossy compression? Probably because it is so new. The Lessiss-Moore algortihm that lzip uses was only invented a few days ago, and the decompression algorithm is even now still under development. :)))ciao,Stefano
      • Anonimo scrive:
        Re: l'ultracompressore
        come pesce d'aprile è carino:Known issues with lzip 1.0: Attempting to compress the lzip or lunzip programs themselves will trap your system in an infinite loop, and may cause the platter from your hard disks to shoot out of their drive bays at close to the speed of sound. Attempting to uncompress either of the exectuables will suck your computer into a minature black hole, which we believe from our benchmarks (speculatively) exits in an anitmatter universe parallel to our own. If you are interested in exploring this possibilty, please write to us once you get there.
        • Anonimo scrive:
          Re: l'ultracompressore
          Segue l'ultimo punto della licenza Free Object Oriented License (FO2L :)) o "foo" license :)))Be strong, and remember: be yourself, because you have to someone, and everyone else is already taken. ciao,Stefano
Chiudi i commenti