Pechino alla telco: ora fondetevi. E' un ordine

Lo stato indica il percorso. Per arrivare al 3G si passa per l'integrazione tra fisso e mobile. E per una rinnovata concorrenza tra gli operatori

Roma – Da sei operatori a tre, questa la chiave per lanciare l’UMTS. Il governo cinese ha reso ufficiale ciò che molti si attendevano da qualche tempo: si va verso la convergenza tra fisso e mobile , per rilanciare la competizione e ridare fiato agli operatori in affanno. Troppo grande la fetta di mercato guadagnata da China Mobile in questi anni, troppo sbilanciata la condizione attuale per pensare di avviare il processo di transizione alla terza generazione. Bisogna rimescolare le carte in tavola.

Con il 70 per cento delle quote, China Mobile è al momento un colosso senza rivali . Questo dato, unito alla difficoltà che incontrano i tre operatori fissi presenti sul suolo cinese, i quali – come nel resto del mondo – stanno vedendo diminuire drasticamente i loro guadagni in favore della telefonia mobile, rendono la situazione complessa soprattutto sul piano degli investimenti.

L’authority TLC locale ha quindi deciso per le fusioni coatte : l’operatore fisso China Telecom acquisirà la rete CDMA di China Unicom, mentre quest’ultima unirà la propria rete GSM con l’operatore tradizionale China Netcom. A China Mobile, invece, verrà assegnata la fusione con China Tietong, il più piccolo dei tre operatori fissi, per bilanciare il suo strapotere nel mobile.

Sono infatti oltre 520 milioni gli utenti che possiedono un telefono cellulare nel paese asiatico, oltre 400 dei quali utilizzano i servizi di China Mobile. Quest’ultima è senz’altro quella che viene maggiormente penalizzata dalla decisione del governo, e il giudizio delle borse non si è fatto attendere: perduti 12 miliardi di dollari di capitalizzazione in due mesi, a causa delle voci su questo imminente rimescolamento delle carte in gioco.

Serrati i tempi di lavorazione delle fusioni: verranno concessi tra i 12 e i 18 mesi per effettuare il passaggio di mano delle infrastrutture e della clientela, al termine dei quali lo stato provvederà ad assegnare le licenze 3G da tempo attese e potenzialmente molto remunerative. In tempo probabilmente per introdurre contestualmente anche LTE e magari la quarta generazione, allargando la banda sui cellulari e aumentando la già notevole penetrazione della telefonia mobile in Cina.

Luca Annunziata

La tua email sarà utilizzata per comunicarti se qualcuno risponde al tuo commento e non sarà pubblicato. Dichiari di avere preso visione e di accettare quanto previsto dalla informativa privacy

  • scorpione scrive:
    ssd
    dischi ssd piu veloci era ora ma il punto negativoe il prezzo. un disco ssd 260 gb costa quanto un pcintero e con questa crisi chi e disposto a comprarlo.Non riesco a capire il costo elevato dato che viene fattoda robot in serie, e non da operai a mano.
  • R. Daneel Olivaw scrive:
    eeepc e ssd
    Intanto l'eeepc usa le "innovative" soluzioni hardware nand sd da pochi giga... e non si tratta di economicita' quandanche le decine di giga te le tirano dietro (sotto i 10 euro al dettaglio) e dietro l'angolo ci sono le centinaia di giga...
  • psychok9 scrive:
    Addio programmi di deframmentazione?
    Se ho capito bene, dovremo dire, finalmente addio ai programmi (di speculazione) della deframmentazione o sbaglio?1) I deframmentatori accorcerebbero la vita delle SSD.2) Non ci sarebbero significativi miglioramenti nelle performance.-----------------------------------------------------------Modificato dall' autore il 27 maggio 2008 16.21-----------------------------------------------------------
    • chojin scrive:
      Re: Addio programmi di deframmentazione?
      - Scritto da: psychok9
      Se ho capito bene, dovremo dire, finalmente addio
      ai programmi (di speculazione) della
      deframmentazione o
      sbaglio?
      1) I deframmentatori accorcerebbero la vita delle
      SSD.Sì.
      2) Non ci sarebbero significativi miglioramenti
      nelle
      performance.?? La deframmentazione si basa sul filesystem, non sulla struttura fisica del disco. Già oggi molti deframmentatori permettono di deframmentare anche le flash USB....
      • kekko89 scrive:
        Re: Addio programmi di deframmentazione?
        secondo me nn ce ne sarà bisogno, perchè non ci sono testine che si spostano e dischi che ruotano: dunque la deframmentazione non migliorerebbe le prestazioni (IMHO)
    • Lucas scrive:
      Re: Addio programmi di deframmentazione?
      La deframmentazione riguarda Windows e basta!
      • chojin scrive:
        Re: Addio programmi di deframmentazione?
        - Scritto da: Lucas
        La deframmentazione riguarda Windows e basta!http://www2.lut.fi/~ilonen/ext3_fragmentation.htmlpdate 2007-12-19 The configurator in the script was missing one include, which prevented it from working in Redhat systems. The fibmap.pl script has now been updated.Measuring fragmentation of ext3 in linuxIt has been often said that ext3 and other filesystems in Linux do not suffer from fragmentation and defragmentation is therefore not needed. However, one system I am using was becoming slower and slower all the time (for example, doing apt-get update/upgrades) and I was suspecting heavy fragmentation of the root-partition. Then I stumbled on the next problem: apparently no one has even bothered to make any tool for measuring the fragmentation level of filesystems in Linux, apart from the one percentual value reported by e2fsck. Of course, when the general consensus is that fragmentation is not an issue, why make a tool for measuring it...I found one program, fibmap. It works (compiling with GCC-4.1 required a couple of fixes), but the output is a bit too cryptic for a random person (in this case, me). The most useful value the Windows defragmentation programs (for example Diskeeper) report is IMHO the number of non-contiguous blocks per file. For example a file with 1000 non-contiguous blocks means that the harddrive will have to make 1000 seeks when reading the file, and if that file is, say, 50MB in size the time wasted on seeking instead of reading will be very significant. If there are many files with hundreds/thousands non-contiguous blocks in a filesystem, fragmentation is quite bad and will affect the performance. Instead of changing fibmap to output the values I wanted, I decided to kludge together a perl-script. The script is based on this example.The script can be downloaded here, fibmap.pl. The script must be run as root, and it takes as input names of files or directories to (recursively) measure for fragmentation. The output is like this:$ ./fibmap.pl /usr/ 1052 15.7MB 15.28KB /usr/lib/libgcj.so.6.0.0 868 18.3MB 21.65KB /usr/lib/wireshark/libwireshark.so.0.0.1 840 20.7MB 25.27KB /usr/lib/libgcj.so.7.0.0 742 19.9MB 27.48KB /usr/share/gnome-applets/gweather/Locations.xml 467 4.2MB 9.31KB /usr/share/wireshark/wireshark/wireshark-filter.html...Non-contiguous: Files 12670 (1713.5MB, avg. 138.49kB per file), blocks 79184, average block 22.16kBContiguous: Files 76846 (351.0MB, avg. 4.68kB per file)The first number is the number of non-contiguous blocks in the file, the second the size of the file, and the third the average length of contiguous blocks. The first file, /usr/lib/libgcj.so.6.0.0, is divided to 1052 blocks, each averaging 15.28kB. Needless to say, reading such file is not stellarly fast. End of the output displays some information for all tested files.So in this case the partition was heavily fragmented, but that is not very surprising because the partition is a bit too small and has therefore been always nearly full. Other filesystems I measured were not nearly as bad, but most files were still in quite small pieces, say, around 100kB per contiguous block on average.Disclaimer: the script may be horribly broken and running it on your system may cause cataclysmic destruction. In more serious tone, the script is not really polished and is provided only in the hope it may be useful to someone. Anyway, the script worked fine for me in Debian unstable (up-to-date in 2006-09-05) with kernel 2.6.18-rc5 on ext3 filesystems. Other filesystems should work provided the IOCTL used for measuring block numbers, FIBMAP, is available for them.
        • vavava scrive:
          Re: Addio programmi di deframmentazione?
          Spiacente deluderti ma quella "deframmentazione" è diversa da quelle di NTFS !(rotfl)Ti sei fatto ingannare dal fatto che si usa la stessa parola, infatti EXT scrive già in modo ordinato (salvo il caricamento sistema che avviene all'inizio) non disordinato come NTFS. :DS'esegue solo quando si carica il sistema poi per 20anni e più NON si deve fare, comunque serve per velocizzare il FS per usi particolari.(linux)Ciao
  • napodano scrive:
    poi dopo mezz'ora si deframmenta..
    ..e le prestazioni tornano quelle di qualsiasi altro HD, ovvero quelle di un floppy disk
    • unaDuraLezione scrive:
      Re: poi dopo mezz'ora si deframmenta..
      contenuto non disponibile
    • Albion scrive:
      Re: poi dopo mezz'ora si deframmenta..
      - Scritto da: napodano
      ..e le prestazioni tornano quelle di qualsiasi
      altro HD, ovvero quelle di un floppy
      diskgli hd SSD non devono spostare la testina per la lettura, quindi le prestazioni in caso di lettura sequenziale o non sequenziale sono abbastanza simili e nettamente superiori a quelle degli HD normali.in più tra i vantaggi degli hd ssd abbiamo:-rumore zero (non ci sono parti in movimento)-consumi molto più ridotti-calore prodotto minorenon sono proprio cose trascurabili, specialmente per i portatili o per i pc utilizzati come media station
      • pippo scrive:
        Re: poi dopo mezz'ora si deframmenta..


        in più tra i vantaggi degli hd ssd abbiamo:
        -rumore zero (non ci sono parti in movimento)
        -consumi molto più ridotti
        -calore prodotto minore e se ti cade il portatile non bestemmi sperando che l'HD si sia spaccato come al solito..........
    • pippo scrive:
      Re: poi dopo mezz'ora si deframmenta..
      veramente... è questo il vantaggio degli SD, non hanno seek time, e il file può essere deframmentato quanto uno vuole e non ci dovrebbe essere nessuna diminuzione delle prestazioni... poichè non occorre aspettare un giro dei piattelli per leggere una informazione che magari è un settore prima, i vantaggi sono evidenti... anzi, visto che comunque su un computer qualsiasi ci sono decine di letture/scritture contemporanee e fisicamente l'HD non ne può fare più di quelle che sono le testine fisiche... direi che il vantaggio è evidente.. anche se iltransfer rate fosse minore.. il vantaggio... sarebbe evidente...
      • napodano scrive:
        Re: poi dopo mezz'ora si deframmenta..
        grazie a tutti per le spiegazioni. però cacchio oh, mi avete rovinato la battuta. nguè.
        • Claudio scrive:
          Re: poi dopo mezz'ora si deframmenta..
          A me piu' che la velocità, mi interesserebbe che lavorassero sulla resistenza nel tempo degli archiviatori di dati. Si parlava che i Dvd o Cd durassero anni ed anni, abbiamo tutti visto che cosi' non è !
          • chojin scrive:
            Re: poi dopo mezz'ora si deframmenta..
            - Scritto da: Claudio
            A me piu' che la velocità, mi interesserebbe che
            lavorassero sulla resistenza nel tempo degli
            archiviatori di dati. Si parlava che i Dvd o Cd
            durassero anni ed anni, abbiamo tutti visto che
            cosi' non è
            !Dipende che DVD+-R/RW e CD-R/RW compri... Certo quelli indiani senza marca da 5-10cents non valgono quanto dei Verbatim DVD-R da 25-30cents... Io ho CD-R di marche come Philips stampati nel lontano 1993 ancora perfettamente funzionanti e leggibili.
          • kekko89 scrive:
            Re: poi dopo mezz'ora si deframmenta..
            idem: dipende anche da come si conservano. La prossimità di un termosifone ad esempio potrebbe accorciarne la vita.
  • bubu scrive:
    50-100K cicli di riscrittura
    ...mi sembrano un po' pochini.... se uno ha l'HD pieno all'80% (come il mio), l'algoritmo che distribuisce le nuove scritture nelle zone libere deve accontentarsi di un 20% di spazio (mica posso spostare in continuazione i file esistenti!).... per cui quel 20% sarà sottoposto a stress maggiore rispetto al restante 80%....Il risultato? Continuando a lavorare su un 20% di spazio libero l'hd si deteriora 5 volte più velocemente, ed alla fine mi troverò con un hd con l'80% di memorie valide ed il 20% di celle di memoria esaurite!!!PS: Mi sono spiegato come un cane ma spero di aver reso l'idea! :-DPPS: Spero anche di sbagliarmi, non vedo l'ora di buttare gli HD attuali e passare agli SSD!! :-P
    • BLah scrive:
      Re: 50-100K cicli di riscrittura
      E' comunque un numero molto basso, si parlasse di milioni starei più tranquillo.Penso che con queste cifre siano semplicemente inaffidabili, già avviati alla loro morte.
    • Vihai Varlog scrive:
      Re: 50-100K cicli di riscrittura
      - Scritto da: bubu
      ...mi sembrano un po' pochini....Perché non studi come funzionano gli algoritmi di WL prima di dare giudizi?
      • bubu scrive:
        Re: 50-100K cicli di riscrittura

        Perché non studi come funzionano gli algoritmi di
        WL prima di dare giudizi?Non ho dato giudizi, ho fatto un esempio.... se di un disco mediamente ne utilizzo solo una percentuale (ad es il 20%) xchè il resto è pieno, mi sembra ragionevole pensare che quella piccola parte sia la prima a degradarsi.....Se tu ne sai di più di "algoritmi WL" illuminaci, o vate.... :-P
        • Freewilly scrive:
          Re: 50-100K cicli di riscrittura
          Infatti. Non si può cavar sangue da una rapa. Io non potrei utilizzare questi dischi, allo stato attuale delle cose. Con un HD pieno al 90% di materiale mai modificato o cancellato, ma solo letto, il restante 10% del disco si consumerebbe relativamente in fretta in barba ai "brillanti" algoritmi di distribuzione dei dati. Sempre con l'uso che ne farei io, cancellando e riscrivendo assai spesso quel restante 10% in modo pressocchè completo in una volta sola il disco durerebbe poco più di un anno. 1.000.000 di riscritture garantite sulla stessa cella comincerebbe già ad essere assai più rassicurante.
          • chojin scrive:
            Re: 50-100K cicli di riscrittura
            - Scritto da: Freewilly
            Infatti. Non si può cavar sangue da una rapa. Io
            non potrei utilizzare questi dischi, allo stato
            attuale delle cose. Con un HD pieno al 90% di
            materiale mai modificato o cancellato, ma solo
            letto, il restante 10% del disco si consumerebbe
            relativamente in fretta in barba ai "brillanti"
            algoritmi di distribuzione dei dati. Sempre con
            l'uso che ne farei io, cancellando e riscrivendo
            assai spesso quel restante 10% in modo pressocchè
            completo in una volta sola il disco durerebbe
            poco più di un anno. 1.000.000 di riscritture
            garantite sulla stessa cella comincerebbe già ad
            essere assai più
            rassicurante.Per eguagliare un HDU direi che le celle di memoria delle flash dovrebbero reggere almeno 500milioni di cicli di scrittura per avere un tempo di vita accettabile. Altrimenti basta un uso medio con file video ed audio che la durata degli SSD diventa mediocre.
  • tony scrive:
    non comprendo
    son inesperto in materie
  • Soulbrighte r scrive:
    Geografia...
    Da quanto Taipei si è trasferita negli USA? :-P
  • chojin scrive:
    Non costerà meno di 1000euro...
    ..e direi che un 1500-1800euro sarà la probabile cifra. Le memorie flash la Samsung non le può certo regalare, figurarsi se mette 256GB delle flash più veloci ad un prezzo uguale ad un HDU 2.5" 320GB...
    • ncvbnugjkdh scrive:
      Re: Non costerà meno di 1000euro...
      - Scritto da: chojin
      ..e direi che un 1500-1800euro sarà la probabile
      cifra.cosi' come costavano piu' di 1000 euri i primi masterizzatori cd; poi la produzione di massa ha abbassato i costi a poche decine di euri; lo stesso avverra' per i dischi ssd
      • grattacocca scrive:
        Re: Non costerà meno di 1000euro...
        ricordo di uno dei primi dischi da 700mb. pagato sui 1000$ da mi zio negli usa. * è sempre la stessa storia coi prezzi *...la cosa interessante qui è che parliamo di tecnologia CONSUMER, che quindi dovrebbe proprio arrivare a prezzi popolari come i ns dischi attuali, prima o poi.
        • pippo scrive:
          Re: Non costerà meno di 1000euro...
          - Scritto da: grattacocca
          ricordo di uno dei primi dischi da 700mb. pagato
          sui 1000$ da mi zio negli usa.
          sei un fanciullo.. disco da 10 Mega... mi sembra che sia venuto sulle 250 mila lire.... ma vuoi mettere avere TUTTO sull'HD invece che sui floppy da 5.e 1/4... come mi gasavo...e poi quando usci il PKZIP... per zippare unfile da 200K ci volevano minuti.. ma vedere le percentuali scorrere fino al100% e poi magicamente vedere il file ridotto del 60%... ahh magie di un tempo... volete mettere con windows vista.. oramai si da tutto per scontato...ora copio un mkv da 4 GB (.... ) via wireless in 7 minuti.... mah!
          • pippo scrive:
            Re: Non costerà meno di 1000euro...
            oramai si da tutto per
            scontato...
            ora copio un mkv da 4 GB (.... ) via wireless in
            7 minuti....
            mah!per non parlare del primo modem a 300baud.. e poi.. quello a 1200 baud.. mezzega!!!! sembrava una scheggia!!!! 232 cps , 233 quando andava bene....( CPS caratteri per secondo, 232 byte/sec..).. aspè qual'era il mio point su fidonet.. §?? non me lo ricordo arghh!!!ora la gente si lamenta se i 4mbit della adsl non gli vanno a palla... mah!
          • Guybrush scrive:
            Re: Non costerà meno di 1000euro...
            - Scritto da: pippo[...]
            ora la gente si lamenta se i 4mbit della adsl non
            gli vanno a palla...
            mah!E aggiungerei "fa bene a lamentarsi".Piuttosto: 50000 sono pochi, punto.Pero' capisco che da qualche parte bisognera' pur cominciare e piu' grandi saranno i dischi e maggiore sara' l'area su cui distribuire il "danno" dovuto alla scrittura con conseguente incremento della durata.GT
          • Walimay scrive:
            Re: Non costerà meno di 1000euro...
            E perche', quando usci' "stacker" che comprimevai in real time tutto il disco ??? Il mio 40 mega divento' magicamente un 80 !Ricordiamoci che alla fine degli anni 80 le memorie costavano 100.000 lire/mega, e non erano certo 50 eruo di oggi. Ah, che tempi... Max.
Chiudi i commenti