Roma – Da sei operatori a tre, questa la chiave per lanciare l’UMTS. Il governo cinese ha reso ufficiale ciò che molti si attendevano da qualche tempo: si va verso la convergenza tra fisso e mobile , per rilanciare la competizione e ridare fiato agli operatori in affanno. Troppo grande la fetta di mercato guadagnata da China Mobile in questi anni, troppo sbilanciata la condizione attuale per pensare di avviare il processo di transizione alla terza generazione. Bisogna rimescolare le carte in tavola.
Con il 70 per cento delle quote, China Mobile è al momento un colosso senza rivali . Questo dato, unito alla difficoltà che incontrano i tre operatori fissi presenti sul suolo cinese, i quali – come nel resto del mondo – stanno vedendo diminuire drasticamente i loro guadagni in favore della telefonia mobile, rendono la situazione complessa soprattutto sul piano degli investimenti.
L’authority TLC locale ha quindi deciso per le fusioni coatte : l’operatore fisso China Telecom acquisirà la rete CDMA di China Unicom, mentre quest’ultima unirà la propria rete GSM con l’operatore tradizionale China Netcom. A China Mobile, invece, verrà assegnata la fusione con China Tietong, il più piccolo dei tre operatori fissi, per bilanciare il suo strapotere nel mobile.
Sono infatti oltre 520 milioni gli utenti che possiedono un telefono cellulare nel paese asiatico, oltre 400 dei quali utilizzano i servizi di China Mobile. Quest’ultima è senz’altro quella che viene maggiormente penalizzata dalla decisione del governo, e il giudizio delle borse non si è fatto attendere: perduti 12 miliardi di dollari di capitalizzazione in due mesi, a causa delle voci su questo imminente rimescolamento delle carte in gioco.
Serrati i tempi di lavorazione delle fusioni: verranno concessi tra i 12 e i 18 mesi per effettuare il passaggio di mano delle infrastrutture e della clientela, al termine dei quali lo stato provvederà ad assegnare le licenze 3G da tempo attese e potenzialmente molto remunerative. In tempo probabilmente per introdurre contestualmente anche LTE e magari la quarta generazione, allargando la banda sui cellulari e aumentando la già notevole penetrazione della telefonia mobile in Cina.
Luca Annunziata
-
Non costerà meno di 1000euro...
..e direi che un 1500-1800euro sarà la probabile cifra. Le memorie flash la Samsung non le può certo regalare, figurarsi se mette 256GB delle flash più veloci ad un prezzo uguale ad un HDU 2.5" 320GB...chojinRe: Non costerà meno di 1000euro...
- Scritto da: chojin> ..e direi che un 1500-1800euro sarà la probabile> cifra.cosi' come costavano piu' di 1000 euri i primi masterizzatori cd; poi la produzione di massa ha abbassato i costi a poche decine di euri; lo stesso avverra' per i dischi ssdncvbnugjkdhRe: Non costerà meno di 1000euro...
ricordo di uno dei primi dischi da 700mb. pagato sui 1000$ da mi zio negli usa. * è sempre la stessa storia coi prezzi *...la cosa interessante qui è che parliamo di tecnologia CONSUMER, che quindi dovrebbe proprio arrivare a prezzi popolari come i ns dischi attuali, prima o poi.grattacoccaRe: Non costerà meno di 1000euro...
- Scritto da: grattacocca> ricordo di uno dei primi dischi da 700mb. pagato> sui 1000$ da mi zio negli usa.>sei un fanciullo.. disco da 10 Mega... mi sembra che sia venuto sulle 250 mila lire.... ma vuoi mettere avere TUTTO sull'HD invece che sui floppy da 5.e 1/4... come mi gasavo...e poi quando usci il PKZIP... per zippare unfile da 200K ci volevano minuti.. ma vedere le percentuali scorrere fino al100% e poi magicamente vedere il file ridotto del 60%... ahh magie di un tempo... volete mettere con windows vista.. oramai si da tutto per scontato...ora copio un mkv da 4 GB (.... ) via wireless in 7 minuti.... mah!pippoGeografia...
Da quanto Taipei si è trasferita negli USA? :-PSoulbrighte rRe: Geografia...
Non sapevi che il Taiwan e' stato annesso agli USA?Brushnon comprendo
son inesperto in materietonyRe: non comprendo
- Scritto da: tony> son inesperto in materieVivrai lo stesso...Alessandrox50-100K cicli di riscrittura
...mi sembrano un po' pochini.... se uno ha l'HD pieno all'80% (come il mio), l'algoritmo che distribuisce le nuove scritture nelle zone libere deve accontentarsi di un 20% di spazio (mica posso spostare in continuazione i file esistenti!).... per cui quel 20% sarà sottoposto a stress maggiore rispetto al restante 80%....Il risultato? Continuando a lavorare su un 20% di spazio libero l'hd si deteriora 5 volte più velocemente, ed alla fine mi troverò con un hd con l'80% di memorie valide ed il 20% di celle di memoria esaurite!!!PS: Mi sono spiegato come un cane ma spero di aver reso l'idea! :-DPPS: Spero anche di sbagliarmi, non vedo l'ora di buttare gli HD attuali e passare agli SSD!! :-PbubuRe: 50-100K cicli di riscrittura
E' comunque un numero molto basso, si parlasse di milioni starei più tranquillo.Penso che con queste cifre siano semplicemente inaffidabili, già avviati alla loro morte.BLahRe: 50-100K cicli di riscrittura
- Scritto da: bubu> ...mi sembrano un po' pochini....Perché non studi come funzionano gli algoritmi di WL prima di dare giudizi?Vihai VarlogRe: 50-100K cicli di riscrittura
> Perché non studi come funzionano gli algoritmi di> WL prima di dare giudizi?Non ho dato giudizi, ho fatto un esempio.... se di un disco mediamente ne utilizzo solo una percentuale (ad es il 20%) xchè il resto è pieno, mi sembra ragionevole pensare che quella piccola parte sia la prima a degradarsi.....Se tu ne sai di più di "algoritmi WL" illuminaci, o vate.... :-PbubuRe: 50-100K cicli di riscrittura
Infatti. Non si può cavar sangue da una rapa. Io non potrei utilizzare questi dischi, allo stato attuale delle cose. Con un HD pieno al 90% di materiale mai modificato o cancellato, ma solo letto, il restante 10% del disco si consumerebbe relativamente in fretta in barba ai "brillanti" algoritmi di distribuzione dei dati. Sempre con l'uso che ne farei io, cancellando e riscrivendo assai spesso quel restante 10% in modo pressocchè completo in una volta sola il disco durerebbe poco più di un anno. 1.000.000 di riscritture garantite sulla stessa cella comincerebbe già ad essere assai più rassicurante.Freewillypoi dopo mezz'ora si deframmenta..
..e le prestazioni tornano quelle di qualsiasi altro HD, ovvero quelle di un floppy disknapodanoRe: poi dopo mezz'ora si deframmenta..
contenuto non disponibileunaDuraLezioneRe: poi dopo mezz'ora si deframmenta..
- Scritto da: napodano> ..e le prestazioni tornano quelle di qualsiasi> altro HD, ovvero quelle di un floppy> diskgli hd SSD non devono spostare la testina per la lettura, quindi le prestazioni in caso di lettura sequenziale o non sequenziale sono abbastanza simili e nettamente superiori a quelle degli HD normali.in più tra i vantaggi degli hd ssd abbiamo:-rumore zero (non ci sono parti in movimento)-consumi molto più ridotti-calore prodotto minorenon sono proprio cose trascurabili, specialmente per i portatili o per i pc utilizzati come media stationAlbionRe: poi dopo mezz'ora si deframmenta..
> > in più tra i vantaggi degli hd ssd abbiamo:> -rumore zero (non ci sono parti in movimento)> -consumi molto più ridotti> -calore prodotto minore e se ti cade il portatile non bestemmi sperando che l'HD si sia spaccato come al solito..........pippoRe: poi dopo mezz'ora si deframmenta..
veramente... è questo il vantaggio degli SD, non hanno seek time, e il file può essere deframmentato quanto uno vuole e non ci dovrebbe essere nessuna diminuzione delle prestazioni... poichè non occorre aspettare un giro dei piattelli per leggere una informazione che magari è un settore prima, i vantaggi sono evidenti... anzi, visto che comunque su un computer qualsiasi ci sono decine di letture/scritture contemporanee e fisicamente l'HD non ne può fare più di quelle che sono le testine fisiche... direi che il vantaggio è evidente.. anche se iltransfer rate fosse minore.. il vantaggio... sarebbe evidente...pippoRe: poi dopo mezz'ora si deframmenta..
grazie a tutti per le spiegazioni. però cacchio oh, mi avete rovinato la battuta. nguè.napodanoRe: poi dopo mezz'ora si deframmenta..
A me piu' che la velocità, mi interesserebbe che lavorassero sulla resistenza nel tempo degli archiviatori di dati. Si parlava che i Dvd o Cd durassero anni ed anni, abbiamo tutti visto che cosi' non è !ClaudioAddio programmi di deframmentazione?
Se ho capito bene, dovremo dire, finalmente addio ai programmi (di speculazione) della deframmentazione o sbaglio?1) I deframmentatori accorcerebbero la vita delle SSD.2) Non ci sarebbero significativi miglioramenti nelle performance.-----------------------------------------------------------Modificato dall' autore il 27 maggio 2008 16.21-----------------------------------------------------------psychok9Re: Addio programmi di deframmentazione?
- Scritto da: psychok9> Se ho capito bene, dovremo dire, finalmente addio> ai programmi (di speculazione) della> deframmentazione o> sbaglio?> 1) I deframmentatori accorcerebbero la vita delle> SSD.Sì. > 2) Non ci sarebbero significativi miglioramenti> nelle> performance.?? La deframmentazione si basa sul filesystem, non sulla struttura fisica del disco. Già oggi molti deframmentatori permettono di deframmentare anche le flash USB....chojinRe: Addio programmi di deframmentazione?
secondo me nn ce ne sarà bisogno, perchè non ci sono testine che si spostano e dischi che ruotano: dunque la deframmentazione non migliorerebbe le prestazioni (IMHO)kekko89Re: Addio programmi di deframmentazione?
La deframmentazione riguarda Windows e basta!LucasRe: Addio programmi di deframmentazione?
- Scritto da: Lucas> La deframmentazione riguarda Windows e basta!http://www2.lut.fi/~ilonen/ext3_fragmentation.htmlpdate 2007-12-19 The configurator in the script was missing one include, which prevented it from working in Redhat systems. The fibmap.pl script has now been updated.Measuring fragmentation of ext3 in linuxIt has been often said that ext3 and other filesystems in Linux do not suffer from fragmentation and defragmentation is therefore not needed. However, one system I am using was becoming slower and slower all the time (for example, doing apt-get update/upgrades) and I was suspecting heavy fragmentation of the root-partition. Then I stumbled on the next problem: apparently no one has even bothered to make any tool for measuring the fragmentation level of filesystems in Linux, apart from the one percentual value reported by e2fsck. Of course, when the general consensus is that fragmentation is not an issue, why make a tool for measuring it...I found one program, fibmap. It works (compiling with GCC-4.1 required a couple of fixes), but the output is a bit too cryptic for a random person (in this case, me). The most useful value the Windows defragmentation programs (for example Diskeeper) report is IMHO the number of non-contiguous blocks per file. For example a file with 1000 non-contiguous blocks means that the harddrive will have to make 1000 seeks when reading the file, and if that file is, say, 50MB in size the time wasted on seeking instead of reading will be very significant. If there are many files with hundreds/thousands non-contiguous blocks in a filesystem, fragmentation is quite bad and will affect the performance. Instead of changing fibmap to output the values I wanted, I decided to kludge together a perl-script. The script is based on this example.The script can be downloaded here, fibmap.pl. The script must be run as root, and it takes as input names of files or directories to (recursively) measure for fragmentation. The output is like this:$ ./fibmap.pl /usr/ 1052 15.7MB 15.28KB /usr/lib/libgcj.so.6.0.0 868 18.3MB 21.65KB /usr/lib/wireshark/libwireshark.so.0.0.1 840 20.7MB 25.27KB /usr/lib/libgcj.so.7.0.0 742 19.9MB 27.48KB /usr/share/gnome-applets/gweather/Locations.xml 467 4.2MB 9.31KB /usr/share/wireshark/wireshark/wireshark-filter.html...Non-contiguous: Files 12670 (1713.5MB, avg. 138.49kB per file), blocks 79184, average block 22.16kBContiguous: Files 76846 (351.0MB, avg. 4.68kB per file)The first number is the number of non-contiguous blocks in the file, the second the size of the file, and the third the average length of contiguous blocks. The first file, /usr/lib/libgcj.so.6.0.0, is divided to 1052 blocks, each averaging 15.28kB. Needless to say, reading such file is not stellarly fast. End of the output displays some information for all tested files.So in this case the partition was heavily fragmented, but that is not very surprising because the partition is a bit too small and has therefore been always nearly full. Other filesystems I measured were not nearly as bad, but most files were still in quite small pieces, say, around 100kB per contiguous block on average.Disclaimer: the script may be horribly broken and running it on your system may cause cataclysmic destruction. In more serious tone, the script is not really polished and is provided only in the hope it may be useful to someone. Anyway, the script worked fine for me in Debian unstable (up-to-date in 2006-09-05) with kernel 2.6.18-rc5 on ext3 filesystems. Other filesystems should work provided the IOCTL used for measuring block numbers, FIBMAP, is available for them.chojinRe: Addio programmi di deframmentazione?
Spiacente deluderti ma quella "deframmentazione" è diversa da quelle di NTFS !(rotfl)Ti sei fatto ingannare dal fatto che si usa la stessa parola, infatti EXT scrive già in modo ordinato (salvo il caricamento sistema che avviene all'inizio) non disordinato come NTFS. :DS'esegue solo quando si carica il sistema poi per 20anni e più NON si deve fare, comunque serve per velocizzare il FS per usi particolari.(linux)Ciaovavavaeeepc e ssd
Intanto l'eeepc usa le "innovative" soluzioni hardware nand sd da pochi giga... e non si tratta di economicita' quandanche le decine di giga te le tirano dietro (sotto i 10 euro al dettaglio) e dietro l'angolo ci sono le centinaia di giga...R. Daneel Olivawssd
dischi ssd piu veloci era ora ma il punto negativoe il prezzo. un disco ssd 260 gb costa quanto un pcintero e con questa crisi chi e disposto a comprarlo.Non riesco a capire il costo elevato dato che viene fattoda robot in serie, e non da operai a mano.scorpioneGrazie, il tuo commento è in fase di approvazioneGrazie, il tuo commento è stato pubblicatoCommento non inviatoGrazie per esserti iscritto alla nostra newsletterOops, la registrazione alla newsletter non è andata a buon fine. Riprova.Leggi gli altri commentiLuca Annunziata 26 05 2008
Ti potrebbe interessare