La Cina forgia un nuovo chip per Linux

Un produttore di Hong Kong ha introdotto sul mercato cinese una nuova CPU progettata per far girare la variante di Linux sviluppata da Transmeta e indirizzata a thin client e dispositivi a basso consumo


Hong Kong (Cina) – Passata agli inizi degli anni ’90 dalla pubblicazione di fumetti allo sviluppo di prodotti hi-tech, Culturecom Holdings si è detta pronta a invadere il mercato cinese con una nuova CPU, chiamata V-Dragon, sviluppata in collaborazione con IBM.

Il nuovo processore, che segue le orme di altri “dragon-chip” made in China , è stata progettata per supportare in modo nativo il sistema operativo Midori di Transmeta, basato sul kernel di Linux, e per rispondere ai criteri stabiliti dal governo cinese per la tecnologia informatica.

V-Dragon è un processore indirizzato ai network computer, ai thin client e ai dispositivi mobili. Basato su un nucleo RISC a 32 bit, il chip integra un’interfaccia di rete Ethernet 10/100, un controller USB, un controller di memoria, il supporto ai touch pad e un sistema per la gestione dei consumi.

Culturecom ha spiegato che la propria CPU è in grado, grazie alla tecnologia Character Generating, di accelerare la generazione a video di 32.000 dei 50.000 caratteri usati nella lingua cinese tradizionale e semplificata: questo consente di alleggerire il carico di lavoro sulla CPU rispetto all’utilizzo dei font TrueType e di ridurre l’occupazione di memoria.

La tua email sarà utilizzata per comunicarti se qualcuno risponde al tuo commento e non sarà pubblicato. Dichiari di avere preso visione e di accettare quanto previsto dalla informativa privacy

  • Anonimo scrive:
    bello ma sbagliato
    1 TB = 1024 GBle dimensioni vanno esperesse in base 2 e non in base 10un hdd da 60 GB viene considerato 1000 mb ma quando si provvede a formattazione (base 2)se ne perdono circa 2 GBincominciamo ad usare corretamente le misurespecialmente se si tratta di spazio(che e' sempre poco)CMQ meglio un paio di GB in meno e un po piu affidabili(cosa possibile) senza incidere sul costo finalead esempio come mai gli HDD ultimi sembrano delle CPUe vogliono rafferddamento attivo per stare un po freschia me pare troppo !! e non solo il problema dei BAD sector1 settore danneggiato e winmerda non e' in grado di scartarloe neanche l'HDD di usare dello spazio per risilvere il problema (riallocazione dinamica)
  • CERCHIO scrive:
    Re: Ottimo...!
    transfer rate che aumenta all'aumentare della densità!!!
  • Anonimo scrive:
    Re: Ke cavolata !

    il mio 160GB è un 19459/255/63 circa). Dove pensi che le
    mettano le 255 teste in un 3"5?Quella e' la modalita' LBA che divide il numero di traccie e moltiplica il numero di testine comunicate dal bios al SO, modalita' inizialmente nata per fregare il DOS e i primi windows visto che tanto tempo fa bill gates disse che la densita' di un disco non poteva andare oltre un certo limite e per aver dischi di grandi dimensioni si poteva solo mettere tanti piattelli, limito' DOS a 1024 cilindri ma con 255 testine .. infatti se provi a calcolare l' LBA di un disco digido a mano, partendo dai parametri CHS reali e inserisci questi parametri calcolati a mano in un vecchio BIOS non so di un 386 con ms dos 6 ti accorgerai che esso funziona anche se e' di alcuni giga quado quel bios e quel so in teoria potevano supportare al massimo 512 mega, questo e' un trucco e la traslazione delle chiamate LBA a CHS viene fatta dall' elettronica del disco... Windows, anche le ultime versioni sono ancora legate a questo fatto dell' LBA ... ora i limiti del SO sono stati aumentati, almeno per quel che riguarda il numero di cilindri ma il SO stesso rimane con limiti che devono essere raggirati in questo modo ... sotto Linux invece e' fattibilissimo usare un disco fisso in modalita' CHS nativamente e questo tra le altre cose velocizza le operazioni visto che non devi fare conversioni dalle chiamate al disco ma ci accedi direttamente ...
  • Anonimo scrive:
    Avaete mai provato...
    ...un RAID con i floppy? ;) O con le memory stick Sony?Su un vecchio iMac da sbarco....Et voila:http://ohlssonvox.8k.com/fdd_raid.htmAltro che dischi "densi e ultraveloci".....Lo so lo so, è la cosa più inutile del mondo ma è divertente e........provate a farlo con Windoze....
  • Anonimo scrive:
    Re: In arrivo i dischi ...
    - Scritto da: Anonimo

    dimentichi che i files in un disco sono

    molto più spesso letti che scritti. Quindi

    al limite chi se ne frega se ci impiega un

    po' più di tempo per fare la sua scrittura

    quando tutte le letture successive

    schizzano?
    be, certo, ma la velocità di scrittura non è
    certo da buttare.
    e poi deframmentando i file si ottiene la
    situazione di file contigui, quindi, come
    sopra, a file contigui le letture schizzano
    sui fs *x come su quelli winSono d'accordo.

    E questa dove l'hai sentita? Il defrag

    sposta semplicemente i files in modo che

    siano contigui, non fa null'altro, al
    limite

    mette qualche file di sistema all'inizio
    del

    disco, ma è tutto.

    Infatti se osservi come vengono spostati i

    files dal defrag ti rendi conto che è ben

    poco efficace.
    veramente quello che il defrag dice di fare
    dal win98 in avanti (e quello che fanno i
    buoni defragger di terze parti) è quello di
    rendere non solo contigui, internamente, i
    files, ma anche di avvicinare i files che
    devono essere caricati contestualmente, se
    devi caricare a b c mette a b c vicini in
    modo che la testina si sposti il meno
    possibilePossibile. Con questo tu mi dici che Windows tiene traccia di quali files sono stati aperti e in quale sequenza? In pratica dal Windows 98 in su il Windows giornalizzerebbe gli accessi ai files per poter ben deframmentare il disco?Non facevano prima a fare una giornalizzazione completa?O a utilizzare un filesystem che non frammenta (o quasi)?

    Perchè non sono dei file systems veloci,

    sono dei files systems semplici. La loro

    semplicità permette di trattarli in
    maniera

    veloce, ma non sono molto efficaci.
    ho capito il concetto, ma può essere vero
    per i fat; ntfs è invece un fs piuttosto
    raffinato; le minori performance sono dovute
    a come win usa entrambi questi fs, non al
    fatto che l'idea del first in e della
    deframmentazione non siano idee valide per
    alleggerire il lavoro del disco, a mio
    avviso sarebbero idee da prendere in
    considerazioneL'NTFS effettivamente è un fs migliore del FAT, ma "purtroppo" è implementato solo da NT+. E molte installazioni di NT+ sono fatte in FAT ancora oggi (per la disperazione dei dischi).Il deframmentatore inoltre è una buonissima idea, non è solo da prendere in considerazione, è da implementare. Infatti esistono delle versioni per FAT e per NTFS, e Linux ha pure il suo. Solo che su FAT devi lanciarlo almeno una volta al mese per essere tranquillo (io lo faccevo una volta a settimana quando usavo Win98), su NTFS e sui FS *x non è necessario farlo così spesso. Su Linux io non lo faccio mai e la frammentazione del mio disco non supera l'1%, su NTFS non lo faccio mai neppure li perchè i files li metto sul server e quindi il rallentamento è a livello del server e della rete.


    si, certo, mio cuggino, quello che gli


    scrive i bug...



    Ah, è tuo cugggino? :-)
    si, il nostro cuggino, anche cuggino di Elio
    e Shpalmen! ;)Miiiiiiiii, che famiiiiiglia. :-)
  • Anonimo scrive:
    Re: 500gb, 1 tb, 50 tb si certo, ma...
    Da non dimenticare inoltre che anche lo scrivere a casaccio non è per forza più rapido. Ogni scrittura rischia di obbligare il movimento della testina per raggiungere il prossimo settore libero, e si sa che rallenta parecchio. Trovare lo spazio contiguo non richiede questo continuo movimento della testina (nella lettura ma anche nella scrittura) e in conseguenza può risultare anche più rapido in scrittura.- Scritto da: Anonimo

    Io con Linux non uso piu' file system

    tradizionali da un paio d'anni o piu'.

    Tra ext3, ReiserFS, JFX, XFS qualche altro

    ho solo l'imbarazzo della scelta e mi uso

    quello che voglio a seconda di cosa deve

    contenere il disco e che prestazioni o

    necessita' di raggiungere o che sicurezze
    mi

    servono (journaling e simili).

    tutti i fs si frammentano, quando cancelli
    files lasci dei buchi, nei quali quando il
    disco è pieno potrà benissimo andare a
    spezzettare dei file più grandi. in teoria
    se hai spazio a sufficienza non dovrebbe mai
    farlo, ma basta cercare sui newsgroup per
    vedere che in realtà diversi utenti di lin,
    bsd e macosx hanno verificato che succede
    anche a valori ben diversi da quelli critici
    per un buon fs.
    e poi la performance del disco non dipende
    solo dalla frammentazione interna dei file,
    ma anche dalla loro disposizione; facciamo
    un passo indietro:
    è solo in fase di scrittura che i fs tipici
    degli *x si comportano radicalmente in modo
    diverso da quelli di win, dato che cercano
    uno spazio sufficiente alla scrittura
    contigua del file mentre i fs win scrivono
    dove capita (primo spazio libero che capita
    sotto le testine)
    scrivere dove capita è più veloce che dover
    cercare uno spazio adatto e farlo
    raggiungere dalle testine, quindi da questo
    punto di vista i fs win sono più veloci di
    quelli *x usuali; apparentemente risulta il
    contrario perche *x gestisce le operazioni
    sui file in maniera più efficiente e quindi
    facendo fare le stesse operazioni di
    scrittura/lettura a *x sul suo fs e a win
    sul suo *x è più veloce, ma non grazie al
    fs, allo stesso modo *x è più veloce sul suo
    fs che su quello win perchè lo usa meglio,
    anche qui il confronto non è alla pari tra i
    fs... bisognerebbe vedere *x su un fs suo
    nativo che gli consenta di scrivere dove
    capita, logicamente non dovendo aspettare
    che la testina arrivi al punto prefissato ma
    accontentandosi del primo libero sarebbe un
    mostro di velocità.
    l'approcio win sembrerebbe demenziale perchè
    fa frammentare molto velocemente i file
    (almeno, se non c'è parte molto
    considerevole del fs vuoto), in realtà
    questo dovrebbe spingere gli utenti a
    deframmentare spesso, cioè riorganizzare non
    solo internamente i file, ma anche la loro
    disposizione su disco; se solitamente carico
    i file a b c d, se anche i dati che
    compongono internamente i file a b c d sono
    contigui (cioè non c'è frammentazione del
    file), le performance sono ulteriormente
    molto migliorate se a b c d si trovano in
    sequenza sul disco piuttosto che a grande
    distanza; questo non si può ottenere senza
    riorganizzare il fs.
    Il limite ovvio (ovvio per win) è che win
    non può spostare alcuni file, che
    risulteranno quindi sempre deframmentati a
    meno di utility a parte che deframmentino
    prima dell'avvio del sistema vero e proprio.
    Sinceramente trovo che un fs che non si pone
    fisime per scrivere e che riorganizzi i dati
    anche a livello di file e non solo
    internamente ai file sia molto buono, poi,
    ognuno usi il fs che gli aggrada, ma non
    venitemi a raccontare che esistono fs che
    magicamente non si frammentano mai (che si
    frammentano molto meno facilmente sarebbe
    esatto) e che comunque questo tipo di
    organizzazione preventiva abbia gli stessi
    benefici della riorganizzazione dei dati dei
    file e dei file stessi che una valida
    deframmentazione dà.
  • Anonimo scrive:
    Re: Byte o bit?
    - Scritto da: lupz
    però i bit si misurano in potenze di 10 e i
    byte in potenze di 2Io di solito faccio 1byte=8bit e il conto torna. :-)
  • Anonimo scrive:
    Kazzata, forse il modellino dell'Empire.
    Con una comune stampante laser su della comune carta formato A4 utilizzando un font 4 è possibile stampare 1 TeraByte di dati occupando un volume di 60 M3 (una stanza di 3x7M)
    • CERCHIO scrive:
      Re: Kazzata, forse il modellino dell'Empire.
      - Scritto da: Anonimo
      Con una comune stampante laser su della
      comune carta formato A4 utilizzando un font
      4 è possibile stampare 1 TeraByte di dati
      occupando un volume di 60 M3 (una stanza di
      3x7M)quante staze del genere ci sono in un empire state building?più, meno di, o circa 100.000?fatti i conti meglio... (non conosco e non mi interessano i dati tecnici dell'empire state building;-)e poi..... quando si fanno dei paragoni del genere (per quanto banali) si intendono implicitamente (forse sbagliando) paramentri comuni..... ovvero: tu stampi con font 4?cordialemtecerchio
  • lupz scrive:
    Re: Byte o bit?
    però i bit si misurano in potenze di 10 e i byte in potenze di 2
  • Anonimo scrive:
    Ke cavolata !

    e di spostare nei settori più veloci i dati più richuiesti.Ti faccio notare che gli harddisk hanno lo stesso numeri di settori traccia per tutte le traccie del disco ... il tempo che impieghi a leggere un' intera traccia alla fine del disco e lo stesso che impieghi a leggere una traccia all' inizio dello stesso, quindi non ci sono zone + veloci del disco ...Te ti confondi con i CDrom che usanso il metodo del Worm .. un' unica spirale in cui i settori sono scritti a "lughezza" sulla spirale stessa e quindi piu' vai all' esterno del CD piu' il bit rate/giro aumenta...
  • Anonimo scrive:
    Re: interessante ma esagerato
    hahahahahala robba,la stazioneeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeee
  • Anonimo scrive:
    Re: Meglio hard disk ultra_sicuri e supe
    - Scritto da: Anonimo
    robusti!!!!!!!
    Che si possano cancellare (wipare?)
    facilmente e totalmente e con bios ben
    fatti: gli hard disk IBM praticamente!!!hahahahahIBM?Ma a quali dischi ti riferisci?Ho visto piu' HD ibm rotti che sabbia nel deserto.....(vabbe' non cosi' tanti, ma un bel po)
  • Anonimo scrive:
    Re: In arrivo i dischi ...

    dimentichi che i files in un disco sono
    molto più spesso letti che scritti. Quindi
    al limite chi se ne frega se ci impiega un
    po' più di tempo per fare la sua scrittura
    quando tutte le letture successive
    schizzano?be, certo, ma la velocità di scrittura non è certo da buttare.e poi deframmentando i file si ottiene la situazione di file contigui, quindi, come sopra, a file contigui le letture schizzano sui fs *x come su quelli win
    E questa dove l'hai sentita? Il defrag
    sposta semplicemente i files in modo che
    siano contigui, non fa null'altro, al limite
    mette qualche file di sistema all'inizio del
    disco, ma è tutto.
    Infatti se osservi come vengono spostati i
    files dal defrag ti rendi conto che è ben
    poco efficace.veramente quello che il defrag dice di fare dal win98 in avanti (e quello che fanno i buoni defragger di terze parti) è quello di rendere non solo contigui, internamente, i files, ma anche di avvicinare i files che devono essere caricati contestualmente, se devi caricare a b c mette a b c vicini in modo che la testina si sposti il meno possibile
    Perchè non sono dei file systems veloci,
    sono dei files systems semplici. La loro
    semplicità permette di trattarli in maniera
    veloce, ma non sono molto efficaci.ho capito il concetto, ma può essere vero per i fat; ntfs è invece un fs piuttosto raffinato; le minori performance sono dovute a come win usa entrambi questi fs, non al fatto che l'idea del first in e della deframmentazione non siano idee valide per alleggerire il lavoro del disco, a mio avviso sarebbero idee da prendere in considerazione

    si, certo, mio cuggino, quello che gli

    scrive i bug...

    Ah, è tuo cugggino? :-)si, il nostro cuggino, anche cuggino di Elio e Shpalmen! ;)
  • Anonimo scrive:
    Re: 500gb, 1 tb, 50 tb si certo, ma...

    Io con Linux non uso piu' file system
    tradizionali da un paio d'anni o piu'.
    Tra ext3, ReiserFS, JFX, XFS qualche altro
    ho solo l'imbarazzo della scelta e mi uso
    quello che voglio a seconda di cosa deve
    contenere il disco e che prestazioni o
    necessita' di raggiungere o che sicurezze mi
    servono (journaling e simili).tutti i fs si frammentano, quando cancelli files lasci dei buchi, nei quali quando il disco è pieno potrà benissimo andare a spezzettare dei file più grandi. in teoria se hai spazio a sufficienza non dovrebbe mai farlo, ma basta cercare sui newsgroup per vedere che in realtà diversi utenti di lin, bsd e macosx hanno verificato che succede anche a valori ben diversi da quelli critici per un buon fs.e poi la performance del disco non dipende solo dalla frammentazione interna dei file, ma anche dalla loro disposizione; facciamo un passo indietro: è solo in fase di scrittura che i fs tipici degli *x si comportano radicalmente in modo diverso da quelli di win, dato che cercano uno spazio sufficiente alla scrittura contigua del file mentre i fs win scrivono dove capita (primo spazio libero che capita sotto le testine)scrivere dove capita è più veloce che dover cercare uno spazio adatto e farlo raggiungere dalle testine, quindi da questo punto di vista i fs win sono più veloci di quelli *x usuali; apparentemente risulta il contrario perche *x gestisce le operazioni sui file in maniera più efficiente e quindi facendo fare le stesse operazioni di scrittura/lettura a *x sul suo fs e a win sul suo *x è più veloce, ma non grazie al fs, allo stesso modo *x è più veloce sul suo fs che su quello win perchè lo usa meglio, anche qui il confronto non è alla pari tra i fs... bisognerebbe vedere *x su un fs suo nativo che gli consenta di scrivere dove capita, logicamente non dovendo aspettare che la testina arrivi al punto prefissato ma accontentandosi del primo libero sarebbe un mostro di velocità.l'approcio win sembrerebbe demenziale perchè fa frammentare molto velocemente i file (almeno, se non c'è parte molto considerevole del fs vuoto), in realtà questo dovrebbe spingere gli utenti a deframmentare spesso, cioè riorganizzare non solo internamente i file, ma anche la loro disposizione su disco; se solitamente carico i file a b c d, se anche i dati che compongono internamente i file a b c d sono contigui (cioè non c'è frammentazione del file), le performance sono ulteriormente molto migliorate se a b c d si trovano in sequenza sul disco piuttosto che a grande distanza; questo non si può ottenere senza riorganizzare il fs.Il limite ovvio (ovvio per win) è che win non può spostare alcuni file, che risulteranno quindi sempre deframmentati a meno di utility a parte che deframmentino prima dell'avvio del sistema vero e proprio.Sinceramente trovo che un fs che non si pone fisime per scrivere e che riorganizzi i dati anche a livello di file e non solo internamente ai file sia molto buono, poi, ognuno usi il fs che gli aggrada, ma non venitemi a raccontare che esistono fs che magicamente non si frammentano mai (che si frammentano molto meno facilmente sarebbe esatto) e che comunque questo tipo di organizzazione preventiva abbia gli stessi benefici della riorganizzazione dei dati dei file e dei file stessi che una valida deframmentazione dà.
  • Anonimo scrive:
    Re: 500gb, 1 tb, 50 tb si certo, ma...
    Avete un po' rotto le p@lle con sto linux.Ho capito che è un S.O. valido, lui ha fatto una semplice domanda.Poi se tu sei contento del tuo Linux, che ho provato e che, almeno per me, funziona con il 10% dei programmi/giochi che uso, meglio per te; ma non andare a fargli la MANFRINA xchè lui usa file system cazzuti, invece tu sei "SBOROOONE" e usi linux.Grazie.~YrA*
  • Anonimo scrive:
    Stupido
    In informatica si segue la potenza di 2 e non il S.I. per i prefissi.Cio' non toglie che il succo del discorso sia giusto.E lo sono anche i calcoli, sta tranquillo.
  • MemoRemigi scrive:
    che asini che siete ! :)
    Il tizio del post ha perfettamente ragione !Sicuramente il paragone regge, ma come al solito sono le solite frasi da giornalismo per il popolino che altrimenti non capisce niente di quello che si sta dicendo.Un po' come quando uno vince tot milioni di euro al totocalcio e allora il giornalista idiota di turno fa notare che con tutti quei soldi ci si potrebbero pagare novecentomila caffè o comprare 5 ferrari o andare a fare 600 crocere.Sono le classiche banalità da giornalisti sgangherati, il tipico modello di giornalismo che purtroppo imperversa in questo patetito stivale.Sinceramente da PI mi aspetto un po' di meglio...speriano nella prossima volta !Ciao.
  • MemoRemigi scrive:
    Re: [OT] Re: Gli hard disk come i floppies
    - Scritto da: Anonimo
    Si, pero' sembra un poco puglies!
    :-)Grazie, mi hai fatto spiaciare dalle risate, e si sa, si dorme meglio dopo una bella risata ! :)
  • MemoRemigi scrive:
    Re: [OT] Re: Gli hard disk come i floppi
    Sono d'accordo con te sul fatto che le parole straniere nel contesto di una frase italiana vadano scritte al singolare, ma il fatto che i francesi abbiano bandito la parola "email"...Lo dico sempre che sono una razza di snob !Intendiamoci, noi italiani siamo degli asini, ma loro sono degli snob di cacca :)
  • Anonimo scrive:
    Re: [OT] Re: Gli hard disk come i floppi

    E pensare che i francesi hanno bandito l'uso
    della parola "email"...Perche' stanno come i pazzi.
  • Anonimo scrive:
    Re: [OT] Re: Gli hard disk come i floppies
    Si, pero' sembra un poco puglies!:-)
  • Anonimo scrive:
    Re: Meglio hard disk ultra_sicuri e super_
    - Scritto da: Anonimo
    robusti!!!!!!!
    Che si possano cancellare (wipare?)
    facilmente e totalmente e con bios ben
    fatti: gli hard disk IBM praticamente!!!HITACHI Vorrai dire !!!...P.S.Il disco che non si rompe lo devono ancora inventare ...in compenso il mondo brulica di idioti che on fanno backup ..UN VAR
  • Anonimo scrive:
    Meglio hard disk ultra_sicuri e super_
    robusti!!!!!!!Che si possano cancellare (wipare?) facilmente e totalmente e con bios benfatti: gli hard disk IBM praticamente!!!
  • Anonimo scrive:
    Re: interessante ma esagerato

    Effettivamente se invece
    di 1 Terabyte ci fosse stato un terabit, i
    fogli impilati
    l'uno sull'altro effettivamente sarebbero
    stati
    alti quanto 16 volte l'empire state
    building...Hai ragione! da questo punto di vista, mi ricorda, andando un po' off-topic, la barzelletta degli ingegneri che cercavano di arrampicarsi su un palo per misurarne l'altezza. arriva un geometra, sfila il palo, lo appoggia per terra, lo misura, e se ne va.... e l'ingegnere capo: "questi geometri! a te serve un'altezza, e lui ti da una lunghezza!"Per inciso, 50 caratteri occupano su un libro standard circa 10 cm... ritagliando a striscioline e incollandole in sequenza, dal nostro terabyte otterremmo un'unica strisciolona di 2'000'000 di kilometri, uguale a 5 volte la distanza tra la terra e la luna!!!!! :)Giors
  • Anonimo scrive:
    Re: interessante ma esagerato

    Peccato inserire frasi di questo tipo che
    abbassano un po' il valore di un articolo
    altrimenti scritto bene.
    Chi parla di misure dovrebbe avere piu senso
    della misura.Caro Amico, non so se concordare.Allora, facciamo due conti: una pagina A4 normale diciamo, per comodità, che contenga 50 righe di 100 caratteri, ovvero 5000 caratteri; stampata fronte retro, sono 10'000 caratteri.Una risma di 500 fogli contiene 5'000'000 caratteri.una risma è spessa 5 cm, e in un metro quadro ce ne stanno per definizione 16, quindi in un metro cubo ce ne stanno 16x20=320, ovvero ci stanno 320x5'000'000=1600 milioni di caratteri.Un terabyte è uguale a un milione di milioni di caratteri, e poichè 1000000/1600=625 metri cubi, tanti sono i metri cubi necessari.Se consideriamo però, ad esempio, un pessimo libro come "la memoria del topo" di connelly, possiamo constatare come la densità di caratteri sia di 50 caratteri per 30 righe per 400 pagine, pari a 700'000 caratteri per un volume di 24x16x4= 1536 cm3, pari a una densità volumetrica di 1'000'000/1536=650 volumi che moltiplicati per 700'000 caratteri fanno 455 milioni di caratteri al metro cubo.1600/455x625 portano a circa 2200 il numero di metri cubi necessari a contenere un terabyte.Vediamo ora i coefficienti di spreco di spazio di una biblioteca: un doppio scaffale è largo circa 50 cm, e ci stanno due volumi profondi mediamente 15 cm, quindi abbiamo un primo coefficiente di 50/30; in altezza, diciamo che gli scaffali abbiano spaziature di 40 cm, contro un'altrezza media dei volumi di 20: coefficiente 40/20; ogno scaffale doppio richiede ovviamente un corridoio largo un metro, coefficiente (100+50)/50.Nuovo volume dunque uguale a 2200 x 5/3 x 4/2 x 15/5 = 22'000 metri cubi.L'empire state building ha un volume di circa un milione di metri cubi, quindi potrebbe contenere una cinquantina scarsa di terabyte di libri reali ben disposti su scaffalature.I conti tornerebbero nel caso si fosse invece parlato di un petabyte.NON BISOGNA PERO' DIMENTICARE che si tratta di una informazione proveniente dal CNR, i cui dipendenti, ben noti per l'alacrità e la dedizione al lavoro, hanno sicuramente tenuto conto nei conteggi effettuati del volume degli uffici deserti, delle sale lettura deserte, e SOPRATTUTTO degli AFFOLLATISSIMI punti di ristoro dotati di macchinetta del caffè... anche in questo caso, i conti tornano (e li paghiamo noi :)Giors
  • Sarge scrive:
    Re: Memorie solide ?
    - Scritto da: MemoRemigi
    ma è possibile che nel 2003 siamo ancora
    dietro ai dischi magnetici e soprattutto
    MECCANICI ???

    Quando arriveranno ste benedette memorie
    solide ?Mah in linea di principio non ci sarebbero problemi adesso, pensa alle memorie per macchina fotografiche che stanno scendendo piuttosto velocemente...Il problema e' la velocita' di scrittura secondo me. Sono ancoratroppo lente, e quindi inadatte a sostituire l'HD.

    E' possibile che nel mio portatile l'unica
    parte in movimento sia il disco fisso (cdrom
    escluso). ?Raffreddato ad acqua e circolazione naturale? :)Comunque anche io spero che entro una decina d'anni l'HD vada in pensione definitivamente...Saluti.
  • Anonimo scrive:
    Re: Memorie solide ?
    - Scritto da: Anonimo
    Cavolo, è mai possibile che nel 2003 debba
    ancora viaggiare in auto, in treno o in
    aereo per spostarmi? Perché ci mettono così
    tanto ad inventare il teletrasporto che
    sarebbe tanto comodo e piacerebbe a
    moltissima gente?

    Uffa!Un intervento buttato li' eh?Le memorie solide sono vicine ad essere una realta', almeno nelle dimensioni degli attuali dischi fissi. E' passato qualche settimana fa, qui su P.I. un articolo che parlava di boot da 2 secondi, su macchine che si basano su quella tecnologia, e si diceva che sono prossime a venire.Ha ragione Memo, le memorie solide sono il top della categoria, sia per la robustezza ai guasti, ma sopratutto per il basso consumo.In pratica le RAM statiche rimpiazzeranno i dischi fissi, e questi diventeranno degli enormi contenitori per qualsiasi cosa.
  • MemoRemigi scrive:
    Re: Memorie solide ?
    - Scritto da: Anonimo
    Cavolo, è mai possibile che nel 2003 debba
    ancora viaggiare in auto, in treno o in
    aereo per spostarmi? Perché ci mettono così
    tanto ad inventare il teletrasporto che
    sarebbe tanto comodo e piacerebbe a
    moltissima gente?

    Uffa!Enterprise, one to beam up ! :)
  • Anonimo scrive:
    Re: Memorie solide ?
    Cavolo, è mai possibile che nel 2003 debba ancora viaggiare in auto, in treno o in aereo per spostarmi? Perché ci mettono così tanto ad inventare il teletrasporto che sarebbe tanto comodo e piacerebbe a moltissima gente?Uffa!
  • Anonimo scrive:
    Re: [OT] Re: Gli hard disk come i floppies
    Anch i pens ch l regol grammatical sian un cazzat, infatt m son inventat un mi regol pe abbreviar l digitazion tralasciand l'ultim caratter, tant s capisc l stess!
  • Anonimo scrive:
    Re: interessante ma esagerato
    sei un genio... 8)
  • Anonimo scrive:
    Re: [OT] Re: Gli hard disk come i floppi
    - Scritto da: Anonimo
    Probabilmente perché "floppies" è più
    pronunciabile di "hard disks", dove il suono
    "sks" è decisamente poco comune nella lingua
    italiana.

    E a parte questo io sono contrario all'uso
    della forma singolare per le parole
    straniere, e non mi interessa l'opinione di
    chi ha deciso di inventare questa regola,
    che induce solo ad errori, quando poi ci si
    trova a dover affrontare l'apprendimento
    della lingua stessa (ad es. inglese).

    CIAO :8Il fatto che tu sia contrario a una regola non significache non debba essere applicata. ne tantomenodi crearsi le proprie regole, solo per far vedere cheuno sa l'inglese... Se si usa la versione in lingua madre, andrebbe racchiusa tra virgolette, quindi "floppies". La regola e' stata introdotta per una questione semplificativa,poiché permette l'uso delle parole straniere senza dover conoscere le regole per i plurali in quella determinata lingua.Tu sai l'inglese, ma in francese e in tedesco? O insvedese? Sai le regole dei plurali e plurali irregolaridi tutte le lingue?Comunque basta usare le parole in italiano."hard disk" esiste in italiano e si chiama "disco rigido". Se leusassimo più spesso non ci suonerebbero cosi' "strane".E pensare che i francesi hanno bandito l'usodella parola "email"...
  • Anonimo scrive:
    Re: In arrivo i dischi ...
    linux non defragga ... io dopo 1 anno.. dopo aver aggiornato 2 volte tutto il sistema dopo centinaia di e centinaia di giga che sono passati sul disco.. scaricati masterizzati cancellati spostati etc etc durante l' fsck forzato per puro test vedevo delle frammentazioni inferiori all' 1% ...se a te scrullava di continuo probabilmente perche' non avevi abbastanza ram e andava di swap ...io ho un p4 2500 con 512 mega di ram e il disco non gira almeno che non avii un prgoramma .... la stessa cosa capita sul mio gateway che di ram ne ha solo 64 mega...
    • Anonimo scrive:
      Re: In arrivo i dischi ...
      - Scritto da: Anonimo
      linux non defragga ... io dopo 1 anno.. dopo
      aver aggiornato 2 volte tutto il sistema
      dopo centinaia di e centinaia di giga che
      sono passati sul disco.. scaricati
      masterizzati cancellati spostati etc etc
      durante l' fsck forzato per puro test vedevo
      delle frammentazioni inferiori all' 1% ...
      se a te scrullava di continuo probabilmente
      perche' non avevi abbastanza ram e andava di
      swap ...
      io ho un p4 2500 con 512 mega di ram e il
      disco non gira almeno che non avii un
      prgoramma .... la stessa cosa capita sul mio
      gateway che di ram ne ha solo 64 mega...Non hai capito, è solo un trollone, a mio avviso il Linux non lo ha neppure mai visto.La mia macchina ha 1G di RAM e non swappa mai, era tutt'altro con la vecchia macchina che aveva 16M e che praticamente lavorava sul disco.
    • Anonimo scrive:
      Re: In arrivo i dischi ...
      - Scritto da: Anonimo
      linux non defragga ... io dopo 1 anno.. dopo
      aver aggiornato 2 volte tutto il sistema
      dopo centinaia di e centinaia di giga che
      sono passati sul disco.. scaricati
      masterizzati cancellati spostati etc etc
      durante l' fsck forzato per puro test vedevo
      delle frammentazioni inferiori all' 1% ...
      se a te scrullava di continuo probabilmente
      perche' non avevi abbastanza ram e andava di
      swap ...
      io ho un p4 2500 con 512 mega di ram e il
      disco non gira almeno che non avii un
      prgoramma .... la stessa cosa capita sul mio
      gateway che di ram ne ha solo 64 mega...Di ram ne ho sempre avuta abbondante, probabilmente era un altro problema.Se i dischi fossero stati gestiti in DMA non me ne sarei accorto ma in PIO su ChipSet Via, non si riusciva nemmeno a muovere il mouse.
  • Anonimo scrive:
    Re: Penso che ...
    - Scritto da: The Raptus
    dipenda ANCHE dal fatto che windows (che
    palle 'sto "winzoz"!) debba essere
    compatibile versoilpassato. Nato con un
    MS-DOS, una cpu molto vecchi arispetto a
    quanto faccio oggi.
    Linux questi problemi non li ha. Linux può
    contare soprattutto su utenti che (in
    generale!9 son più smaliziati, non ti
    chiamano per sapere come fa a girare un
    floppy quadrato (a me è successo ...), senza
    conrtare che ha preso spunto da uno SCO-UNIX
    che girava su macchine molto più potenti già
    dall aprima version.Il fardello della
    compatibilità verso il basso non c'è.
    Insomma mi femo qui. Che palle tuttele volte
    'sta storia linux - windows. Neanche in
    palestra sotto la doccia su chi cel'ha più
    lungo.1. La compatibilità c'è eccome e infatti Linux sa usare pure i FAT e tutti i files sistems più vecchi (p.e. minix), senza contare altre compatibilità.2. Linux non ha copiato proprio nulla da SCO, semmai è il contrario. Nel 97 stavo discutendo con un collega che usava SCO in ufficio e Linux a casa e mi diceva che SCO era una grossa merda e che aveva continuamente problemi. Da cui deduco che SCO era a livelli inferiori al Linux già nel 97. Figuriamoci adesso.3. Non vedo dove stia la compatibilità Windows tra FAT e NTFS4. Non vedo dove stia la compatibilità Windows tra Windows 3.1 e Windows XP.Quindi se quelli di MS non sono riusciti a fare con Windows quello che è stato fatto con Linux non è per questioni di compatibilità in dietro o in avanti, ma per questione di costi. Se una cosa costa troppo non la fanno e basta, mentre su Linux quel problema non si pone, se qualcuno desidera farlo lo fa, indipendentemente dai costi.Per la storia Linux-Windows, non sono io che l'ho iniziata e trovo pure io che sia completamente OT, ma mi sento obligato a rispondere quando vedo cose non completamente giuste.
    La notizia parla di HD futuri e di metodi di
    memorizzazione. Vogliamo parlare di quello?Volentieri.
    IO mi chiedo nvece, visto che già oggi gli
    80Gb sono anche troppi per un home computer
    (hey, ma non trovodi meglio come
    prezzo/prestazioni!) che siano altri gli
    obbiettivi da raggiungere!Io attualmente a casa ho 2x160GB in RAID1 e sono più che sufficienti per farci di tutto. Non calcolo gli altri GB dei "vecchi dischi".
    Mi immagino una sorta di RAID integrato (di
    tipo mirroring, ovviamente!), contando che
    lamaggior densità dovrebbe portare ad un
    migliore transfer rate (ancheseek time?
    boh!).Non è una buona idea, un HD può rompersi in vari modi. È vero che il piatto può perdere la magnetizzazione, ma puoi anche avere problemi di alimentazione, un motore rotto, il controller rotto, una sovratemperatura che ti rovina il supporto o le teste, ...Se hai una sola scatola con dentro due piatti rischi unicamente di vederteli saltare tutti e due nello stesso tempo. Per un RAID è preferibile usare due HD meccanicamente ben separati. Meglio ancora se su alimentazioni diverse ridondanti e su due cavi separati.Ti ricordo inoltre che un RAID non protegge da manipolazioni errate, quindi rischi sempre e comunque di perdere i dati, nulla vale un buon backup su tape.
    SOno convinto che le prestzioni non
    si fanno SOLO con gli RPM, con i prosssimi
    10.000 rpm e gli scsi a 15 - 18.000.I miei dischi da 160GB sono dei 5000 e vanno benissimo, lo scopo di quei dischi è lo stoccaggio di informazione, non l'accesso rapido. Come sempre tutto dipende dall'uso che se ne fa.
    Ma l'evoluzione tecnologica passa anche
    attraverso passi inutili .. vedi ATA66, 100,
    133 e 150: nessuno di questi step era
    fondamentale .. ma 4 passi in generale hanno
    migliorato. e speriamo continuino, perchè
    gli ultimi SATA sono più lenti dei Parallel,
    ed il 10.000RPM di WesterD costa più dello
    SCSI IBM!!!Giusto, però se si accordassero meglio eviterebbero di farci cambiare tutta la circuiteria una volta all'anno ma svilupperebbero subito uno standard decente.Il problema resterebbe in ogni caso quello della tecnologia che avanza molto più in fretta di quanto gli ingenieri riescano a gestire. Quindi al momento in cui uno standard prende forma è già vecchio ed è ora di rimpiazzarlo con uno nuovo.Il risultato è spesso un bel "il mio è migliore del tuo", che non ci porta da nessuna parte.
    Per tutti i delatori: vorrei vedere nei
    panni di BILL G. quanti si sarebbero
    comportati da "filantropi" e non tirato
    l'acqua al proprio mulino.Nessuno ha detto che si sarebbe comportato differentemente da B.G., però se io avessi fatto come Billy a questo punto sarei criticato tanto quanto lui, fa parte del gioco.Inoltre questo non giustifica la passività della gente e peggio ancora dei governi.Io vorrei vedere se nei panni di Saddam tu ti saresti comportato diversamente. O se nei panni di Osama o nei panni di Hitler o nei panni di chissà chi altro.Però questa gente è stata comunque giustamente criticata, non perchè gli altri si sarebbero comportati diversamente, ma perchè la situazione che si è creata era insostenibile.Nel caso di B.G. la situazione è insostenibile nel quadro dello sviluppo di un mercato libero nel campo dell'informatica e più precisamente nel campo degli OS, delle suite da ufficio e dei browsers.
  • Anonimo scrive:
    Re: In arrivo i dischi ...
    - Scritto da: Anonimo

    IO: perche' e' dal 1984 che unix sa come

    accedere a un disco in modo efficente e
    oggi

    nel 2003 ancora si usa fat e ntfs che

    frammentano e sono lentissimi ?

    ma che sei, pagato da M$ per diffondere
    str.nzat3 su linux?
    il metodo first free che M$ utilizza provoca
    più rapidamente la frammentazione del disco
    del first fit dei fs più comuni per unix, ma
    è più veloce nello scrivere su disco per
    ovvi motivi (la meccanica del disco non deve
    ruotare per raggiungere una sezione
    contenente spazio libero a sufficienza, la
    scrittura first inizia invece + - dove ti
    trovi).dimentichi che i files in un disco sono molto più spesso letti che scritti. Quindi al limite chi se ne frega se ci impiega un po' più di tempo per fare la sua scrittura quando tutte le letture successive schizzano?
    Per quanto riguarda la successiva lettura,
    ovviamente il metodo first free provoca
    rapidamente dei problemi perchè i files sono
    scritti a raglio sul disco, ma M$ ha fatto
    il defragger in modo che non si limitasse a
    spostare i file per riscriverli in modo che
    siano continui, ma anche di rendere contigui
    file diversi che il sistema ha
    precedentemente caricato contiguamente e di
    spostare nei settori più veloci i dati più
    richuiesti.E questa dove l'hai sentita? Il defrag sposta semplicemente i files in modo che siano contigui, non fa null'altro, al limite mette qualche file di sistema all'inizio del disco, ma è tutto.Infatti se osservi come vengono spostati i files dal defrag ti rendi conto che è ben poco efficace.Nel 93 c'era un programma che faceva parte dei pctools e che si chiamava compress ed era molto più rapido ed efficace del defragmenter attuale, solo che all'epoca non esistevano i nomi lunghi e i dischi non facevano più di 512MB, altrimenti lo userei ancora.
    La tua domanda doveva essere, al famoso
    dipendente M$ (tra l'altro è mio cuggino)
    "perchè M$ usa dei fs estremamente veloci e
    riesce lo stesso a fare risultare le
    operazioni di scrittura e lettura diverse
    volte più lente degli unix?"Perchè non sono dei file systems veloci, sono dei files systems semplici. La loro semplicità permette di trattarli in maniera veloce, ma non sono molto efficaci.
    E a Linus, appena lo vedi, "ma perchè caspio
    non prendete in considerazione sul fs di
    default di utilizzare il metodo first free e
    creare un buon defrag stile M$ che ottimizzi
    i file non in base al primo spazio
    disponibile di dimensioni adatte quando
    furono scritti ma piuttosto in base
    all'utilizzo che ne fa il sistema, così
    migliorate ulteriormente le prestazioni di
    linuzzo nelle operazioni su disco?"Non è Linus che decide sui file systems, ce ne sono diversi su Linux e ognuno ha i suoi vantaggi e i suoi svantaggi. Comunque scegliendo bene il file system si possono avere più vantaggi che svantaggi. Il tutto dipende da "per cosa lo usi".

    Dipendente Microsoft: perche' poi chi
    vende

    harddisk non avrebbe interesse a vendere

    dischi + veloci ...
    si, certo, mio cuggino, quello che gli
    scrive i bug...Ah, è tuo cugggino? :-)
  • Anonimo scrive:
    Re: Byte o bit?
    - Scritto da: Anonimo

    - Scritto da: Anonimo



    - Scritto da: Anonimo






    A casa mia un Terabit e' uguale a


    128GByte.





    Dovresti aggiornare casa tua allora.








    http://physics.nist.gov/cuu/Units/binary.html






    Ma che c'entra?



    1 Terabit = 1024 Gbit

    1024 Gbit / 8 = 128 GByte



    Anche se fai i conti con 1000 anzichè 1024

    la sostanza del discorso non cambia...

    kilo (1000)
    mega (1 milione)
    giga (1 miliardo)
    tera (1000 miliardi)

    1 Terabit = 1000 miliardi di bit

    le potenze di 2, come sai, si introducono
    per i multipli dei bit (byte) ognuno
    composto da 8 bit.
    Se fai i conti con 1000 o con 1024 se non
    cambia la sostanza del discorso cmq cambia
    il risultato!
    Infatti sarebbero ancora meno: 1Tbit = 125GbytesIl risultato cambia di pochissimo quindi il suo commento è fondato.Inoltre ti ricordo che i multipli in informatica si calcolano in potenze di due:2^10 = Kilo2^20 = Mega2^30 = Giga2^40 = Tera2^50 = Peta2^60 = Exa2^70 = Yotta2^80 = Zettae chi ne ha più ne metta (e così faccio pure la rima).E questo indipendentemente dal SI e dall'URL che hai mandato, è dagli albori dell'informatica che è così e non comincio certo a cambiare adesso. Anche perchè usando il fattore 1000 del SI ci si ritroverebbe a calcolare con frazioni di bit il che è estremamente scomodo.
  • Akiro scrive:
    Re: articoli poco importanti

    a me però non dispiace essere aggiornato su
    quello che le grandi aziende del settore
    stanno facendo...si però potevan anke metterla come notizia flash... tanto da qui a 10 anni fanno in tempo a cambiare completamente approccio al problema...
  • MemoRemigi scrive:
    Re: Memorie solide ?
    - Scritto da: Anonimo
    perchè evidentemente non sono così a portata
    di mano come sembra,, comunque quando miMi sa che purtroppo hai ragione :(
    capita di ripare pc alla fine il componente
    che si guasta mano in assoluto è il disco
    fisso, scheda madre, processore, ram e
    scheda video sono quelle che si guastano di
    normaIo ho visto più dischi fissi rotti che altri componenti.Ho visto certa gente dare dei colpi ai pc accesi...E comunque è innegabile che la parte più a rischio su un portarile è il disco fisso.
  • Anonimo scrive:
    Re: GUARDA CHE E' ESATTO

    1 Terabit = 1000 Gigabit = 128 Gigabyte

    1 Terabyte = 1000 Gigabyte = 8000 Gigabit
    scusa ma:1000 / 8 = 125è ininfluente nel discorso iniziale comunque
  • Anonimo scrive:
    [OT] Re: Gli hard disk come i floppies
    Probabilmente perché "floppies" è più pronunciabile di "hard disks", dove il suono "sks" è decisamente poco comune nella lingua italiana.E a parte questo io sono contrario all'uso della forma singolare per le parole straniere, e non mi interessa l'opinione di chi ha deciso di inventare questa regola, che induce solo ad errori, quando poi ci si trova a dover affrontare l'apprendimento della lingua stessa (ad es. inglese).CIAO :8
  • napodano scrive:
    [OT] Re: Gli hard disk come i floppies
    perché "gli hard disk" senza il plurale e "i floppies" con il plurale?le parole straniere sono invarianti nel plurale.
  • Anonimo scrive:
    GUARDA CHE E' ESATTO
    Caro amico, prima di dire a qualcuno di aggiornare casa sua, accendi il cervello.Ora lo scrivo piano piano:1 Terabit = 1000 Gigabit = 128 Gigabyte1 Terabyte = 1000 Gigabyte = 8000 GigabitCome puoi vedere dal primo e terzo membro della prima equazione (non è difficile, coraggio....) il nostro amico di prima ha perfettamente ragione.Studia ! 8)
  • Anonimo scrive:
    Re: interessante ma NON esagerato
    Non credo che PI le spari a caso, tanto è vero che lo stesso paragone (del grattacielo) è riportato pari pari su il SOLE 24 ORE (24 luglio 2003, pag.11). Pensi siano poco seri anche questi tizi?
  • Anonimo scrive:
    Re: interessante ma esagerato

    Per stoccare un terabyte di informazione
    cartacea ci vuole un edificio 16volte piu
    grande dell'Empire state Building?Si usa dire cosi', credo, perche' cosi' uno visualizza e si rende conto delle capacita'. Per me ha senso.Andando in topic, comunque, di questa cosa si parla tanto ma sul mercato ancora s'e' visto pochino. Vaporware?
  • Anonimo scrive:
    Re: Memorie solide ?
    - Scritto da: MemoRemigi
    ma è possibile che nel 2003 siamo ancora
    dietro ai dischi magnetici e soprattutto
    MECCANICI ???

    Quando arriveranno ste benedette memorie
    solide ?

    E' possibile che nel mio portatile l'unica
    parte in movimento sia il disco fisso (cdrom
    escluso). ?

    Lo sanno tutti che le parti meccaniche sono
    le prime a rompersi/usurarsi, e allora
    perchè nessuno spinge per le memorie solide
    ?

    Uffa !perchè evidentemente non sono così a portata di mano come sembra,, comunque quando mi capita di ripare pc alla fine il componente che si guasta mano in assoluto è il disco fisso, scheda madre, processore, ram e scheda video sono quelle che si guastano di norma
  • Anonimo scrive:
    Re: Ottimo...!
    - Scritto da: Anonimo

    - Scritto da: Anonimo


    beh, io speravo per le memorie rom
    grandi


    quanto un HD ... :(



    ROM ???

    Guarda che le ROM sono memorie a sola

    lettura..... Magari vorrai dire RAM non

    volatili !

    Il problema delle ram non volatili è che a

    parità di dimensioni rispetto agli HD

    riuscirebbero ad incamerare molti meno
    dati

    e sarebbero + lente in scrittura e +

    costose, quindi non conviene utilizzarle.

    sarebbe una questione di evoluzione, ma
    almeno non ci sarebbero più parti meccaniche
    Non è neanche quello il problema reale: quello che frena le SRAM è che il costo per ogni mega è più di dieci volte quello degli HD. Prima o poi si arriva, come i monitor TFT. Una volta costavano un patrimonio, nessuno li comprava per cui i negozi non li avevano neanche in catalogo. Oggi invece stanno andando abbastanza, nonostante la qualità faccia davvero schifo. No, non mi venite a dire "ma non hai visto questo, non hai visto quello" ecc., ne ho visti e ne vedo tanti ogni giorno e non c'è pezza: la definizione di un monitor normale è ancora un miraggio; per non parlare delle animazioni e dei movimenti delle finestre: si lasciano dietro delle scie da paura. E la stessa cosa la vedo nelle TV, anche le più blasonate.Tit.
  • Anonimo scrive:
    Gli hard disk come i floppies
    Praticamente saranno da buttare appena si smagnetizzano hard ddisk pagati magari 500E contro un cd-rw che costa 1E. E' una novità del cazzo che rende i dati insicuri. La soluzione è sempre e comunque: Memorie ottiche o solide. Lì è la sfida, e soprattutto i prezzi: DEVONO ESSERE BASSI E NON SOLO PER IL DUCE.
  • MemoRemigi scrive:
    Memorie solide ?
    ma è possibile che nel 2003 siamo ancora dietro ai dischi magnetici e soprattutto MECCANICI ???Quando arriveranno ste benedette memorie solide ?E' possibile che nel mio portatile l'unica parte in movimento sia il disco fisso (cdrom escluso). ?Lo sanno tutti che le parti meccaniche sono le prime a rompersi/usurarsi, e allora perchè nessuno spinge per le memorie solide ?Uffa !
  • LockOne scrive:
    Re: 500gb, 1 tb, 50 tb si certo, ma...
    - Scritto da: Anonimo
    io con Linux e 1,2 tera non devo
    deframmentare mai perche' ext3 non
    frammenta...io non uso il computer, io uso la panda. e nemmeno lei deframmenta.tie'.
  • Anonimo scrive:
    Re: articoli poco importanti
    Ma gli rispondi pure a questo trollone?Oppure è un lamer!
  • Anonimo scrive:
    Re: articoli poco importanti
    - Scritto da: Akiro
    gli articoli che preannunciano dischi
    capientissimi, ram stra-veloci, etc..
    lasciano un po' il tempo che trovano...
    tanto si sa che ci vogliono anni ed anni e
    prima o poi si arriva a tutto 8 )a me però non dispiace essere aggiornato su quello che le grandi aziende del settore stanno facendo...
  • Akiro scrive:
    articoli poco importanti
    gli articoli che preannunciano dischi capientissimi, ram stra-veloci, etc.. lasciano un po' il tempo che trovano...tanto si sa che ci vogliono anni ed anni e prima o poi si arriva a tutto 8 )
  • Anonimo scrive:
    Re: Byte o bit?
    - Scritto da: Anonimo

    - Scritto da: Anonimo




    A casa mia un Terabit e' uguale a

    128GByte.



    Dovresti aggiornare casa tua allora.




    http://physics.nist.gov/cuu/Units/binary.html



    Ma che c'entra?

    1 Terabit = 1024 Gbit
    1024 Gbit / 8 = 128 GByte

    Anche se fai i conti con 1000 anzichè 1024
    la sostanza del discorso non cambia...kilo (1000)mega (1 milione)giga (1 miliardo)tera (1000 miliardi)1 Terabit = 1000 miliardi di bitle potenze di 2, come sai, si introducono per i multipli dei bit (byte) ognuno composto da 8 bit.Se fai i conti con 1000 o con 1024 se non cambia la sostanza del discorso cmq cambia il risultato!
  • Anonimo scrive:
    Re: Ottimo...!
    - Scritto da: Anonimo

    beh, io speravo per le memorie rom grandi

    quanto un HD ... :(

    ROM ???
    Guarda che le ROM sono memorie a sola
    lettura..... Magari vorrai dire RAM non
    volatili !
    Il problema delle ram non volatili è che a
    parità di dimensioni rispetto agli HD
    riuscirebbero ad incamerare molti meno dati
    e sarebbero + lente in scrittura e +
    costose, quindi non conviene utilizzarle.sarebbe una questione di evoluzione, ma almeno non ci sarebbero più parti meccaniche
  • Anonimo scrive:
    Re: Penso che ...
    - Scritto da: The Raptus
    IO mi chiedo nvece, visto che già oggi gli
    80Gb sono anche troppi per un home computer
    (hey, ma non trovodi meglio come
    prezzo/prestazioni!) che siano altri gli
    obbiettivi da raggiungere!Beh, per chi ha fastweb (come me) 80-100 giga fanno presto a finire... :P
    Mi immagino una sorta di RAID integrato (di
    tipo mirroring, ovviamente!), contando che
    lamaggior densità dovrebbe portare ad un
    migliore transfer rate (ancheseek time?
    boh!). SOno convinto che le prestzioni non
    si fanno SOLO con gli RPM, con i prosssimi
    10.000 rpm e gli scsi a 15 - 18.000.
    Ma l'evoluzione tecnologica passa anche
    attraverso passi inutili .. vedi ATA66, 100,
    133 e 150: nessuno di questi step era
    fondamentale .. ma 4 passi in generale hanno
    migliorato. e speriamo continuino, perchè
    gli ultimi SATA sono più lenti dei Parallel,
    ed il 10.000RPM di WesterD costa più dello
    SCSI IBM!!!Io spero che i tagli + piccoli calino di prezzo, così ne compro 2 e li metto in raid :Dciao
  • Anonimo scrive:
    Re: +densità, +velocità (credo)
    - Scritto da: avvelenato
    intuitivamente all'aumentare della densità,
    dovrebbe aumentare pure la velocità in
    scrittura...


    spero qualcuno con conoscenze superiori alle
    mie possa chiarire meglioEssendo le informazioni più "dense" la meccanica deve "fare meno strada" per scriverle sul disco e quindi ci metterà meno tempo.Esempio (molto) stupido (e semplicistico): per scrivere un file da 200 K adesso il disco deve fare 1/4 di giro, in futuro, a causa della maggiore densità la stessa informazione da 200 K potrà essere scritta in 1/8 di giro.A partità di velocità di rotazione il tempo impieato sarà minore.Un paragone (anche questo semplicistico ed idiota): ammettiamo di dovere stampare un testo di 10000 caratteri in carattere 12 e che questa stampa occupi 10 pagine, la stampante ci metterà 15 secondi; se aumenti la densità delle informazioni riducendo le dimensioni del carattere a 8, lo stesso documento diventerà di 8 pagine e la stampante ci metterà meno a stampare.Alex
  • Anonimo scrive:
    Re: Byte o bit?
    - Scritto da: Anonimo


    A casa mia un Terabit e' uguale a
    128GByte.

    Dovresti aggiornare casa tua allora.

    http://physics.nist.gov/cuu/Units/binary.html
    Ma che c'entra?1 Terabit = 1024 Gbit 1024 Gbit / 8 = 128 GByteAnche se fai i conti con 1000 anzichè 1024 la sostanza del discorso non cambia...
  • Anonimo scrive:
    Re: In arrivo i dischi ...
    - Scritto da: Anonimo
    IO: perche' e' dal 1984 che unix sa come
    accedere a un disco in modo efficente e oggi
    nel 2003 ancora si usa fat e ntfs che
    frammentano e sono lentissimi ?
    Dipendente Microsoft: perche' poi chi vende
    harddisk non avrebbe interesse a vendere
    dischi + veloci ...Goditi il tuo linux che non defragga.. dovresti esserne felice.Io pero' sento spesso frullare l'HD da solo sotto Linux.. e quando il controller era ancora PIO e non DMA era impossibile manovrarlo poi pure il mouse andava a scatti.Secondo me defragga giornalmente da solo..
  • Anonimo scrive:
    Re: Byte o bit?

    A casa mia un Terabit e' uguale a 128GByte.Dovresti aggiornare casa tua allora.http://physics.nist.gov/cuu/Units/binary.html
  • Anonimo scrive:
    Re: Byte o bit?
    - Scritto da: Anonimo
    Credo che P.I. debba fare piu' attenzione a
    non confondere il Byte col bit.


    "I nostri prototipi di laboratorio sono

    in grado di immagazzinare una densità di

    informazioni pari a 100 Gbyte per pollice

    quadro,

    E poi scrivono:


    "Stanno per essere sviluppate anche nuove

    tecnologie in grado di portarci al Terabit

    per pollice quadro

    Cioe': Raga', stiamo regredendo, invece di
    progredire...

    Ormai si e' pronti a tutto, pur di fare
    informazione... sbagliata

    (anche questo post sara' segato, come tutti
    quelli in cui P.I. si vergogna di quello che
    ha scritto).

    Gli do' 10 minuti di vita.Eh no, quello che è sbagliato è non applicare gli standard sulle unità di misura binarie che correttamente danno 1 TeraByte= 1000 GigaByteLeggete e per favore diffondete la (vecchia) notizia:http://physics.nist.gov/cuu/Units/binary.html
  • Anonimo scrive:
    In arrivo i dischi ...
    Ultra densi e ultra veloci e anche la nuova versione di winsdoz ultra pesante e con un filesystem sempre peggio usato per rallentare cmq a forza l' accesso al disco...Cito:IO: perche' e' dal 1984 che unix sa come accedere a un disco in modo efficente e oggi nel 2003 ancora si usa fat e ntfs che frammentano e sono lentissimi ?Dipendente Microsoft: perche' poi chi vende harddisk non avrebbe interesse a vendere dischi + veloci ...
    • Anonimo scrive:
      Re: In arrivo i dischi ...

      IO: perche' e' dal 1984 che unix sa come
      accedere a un disco in modo efficente e oggi
      nel 2003 ancora si usa fat e ntfs che
      frammentano e sono lentissimi ?ma che sei, pagato da M$ per diffondere str.nzat3 su linux?il metodo first free che M$ utilizza provoca più rapidamente la frammentazione del disco del first fit dei fs più comuni per unix, ma è più veloce nello scrivere su disco per ovvi motivi (la meccanica del disco non deve ruotare per raggiungere una sezione contenente spazio libero a sufficienza, la scrittura first inizia invece + - dove ti trovi). Per quanto riguarda la successiva lettura, ovviamente il metodo first free provoca rapidamente dei problemi perchè i files sono scritti a raglio sul disco, ma M$ ha fatto il defragger in modo che non si limitasse a spostare i file per riscriverli in modo che siano continui, ma anche di rendere contigui file diversi che il sistema ha precedentemente caricato contiguamente e di spostare nei settori più veloci i dati più richuiesti.La tua domanda doveva essere, al famoso dipendente M$ (tra l'altro è mio cuggino) "perchè M$ usa dei fs estremamente veloci e riesce lo stesso a fare risultare le operazioni di scrittura e lettura diverse volte più lente degli unix?"E a Linus, appena lo vedi, "ma perchè caspio non prendete in considerazione sul fs di default di utilizzare il metodo first free e creare un buon defrag stile M$ che ottimizzi i file non in base al primo spazio disponibile di dimensioni adatte quando furono scritti ma piuttosto in base all'utilizzo che ne fa il sistema, così migliorate ulteriormente le prestazioni di linuzzo nelle operazioni su disco?"
      Dipendente Microsoft: perche' poi chi vende
      harddisk non avrebbe interesse a vendere
      dischi + veloci ...si, certo, mio cuggino, quello che gli scrive i bug...
    • The Raptus scrive:
      Re: Penso che ...
      dipenda ANCHE dal fatto che windows (che palle 'sto "winzoz"!) debba essere compatibile versoilpassato. Nato con un MS-DOS, una cpu molto vecchi arispetto a quanto faccio oggi.Linux questi problemi non li ha. Linux può contare soprattutto su utenti che (in generale!9 son più smaliziati, non ti chiamano per sapere come fa a girare un floppy quadrato (a me è successo ...), senza conrtare che ha preso spunto da uno SCO-UNIX che girava su macchine molto più potenti già dall aprima version.Il fardello della compatibilità verso il basso non c'è.Insomma mi femo qui. Che palle tuttele volte 'sta storia linux - windows. Neanche in palestra sotto la doccia su chi cel'ha più lungo.La notizia parla di HD futuri e di metodi di memorizzazione. Vogliamo parlare di quello?IO mi chiedo nvece, visto che già oggi gli 80Gb sono anche troppi per un home computer (hey, ma non trovodi meglio come prezzo/prestazioni!) che siano altri gli obbiettivi da raggiungere!Mi immagino una sorta di RAID integrato (di tipo mirroring, ovviamente!), contando che lamaggior densità dovrebbe portare ad un migliore transfer rate (ancheseek time? boh!). SOno convinto che le prestzioni non si fanno SOLO con gli RPM, con i prosssimi 10.000 rpm e gli scsi a 15 - 18.000.Ma l'evoluzione tecnologica passa anche attraverso passi inutili .. vedi ATA66, 100, 133 e 150: nessuno di questi step era fondamentale .. ma 4 passi in generale hanno migliorato. e speriamo continuino, perchè gli ultimi SATA sono più lenti dei Parallel, ed il 10.000RPM di WesterD costa più dello SCSI IBM!!!Per tutti i delatori: vorrei vedere nei panni di BILL G. quanti si sarebbero comportati da "filantropi" e non tirato l'acqua al proprio mulino.
  • avvelenato scrive:
    Re: Byte o bit?
    - Scritto da: Anonimo
    Credo che P.I. debba fare piu' attenzione a
    non confondere il Byte col bit.


    "I nostri prototipi di laboratorio sono

    in grado di immagazzinare una densità di

    informazioni pari a 100 Gbyte per pollice

    quadro,
    esatto
    E poi scrivono:


    "Stanno per essere sviluppate anche nuove

    tecnologie in grado di portarci al Terabit

    per pollice quadro
    esatto
    Cioe': Raga', stiamo regredendo, invece di
    progredire...perché?scusa la prima volta han detto 100gbyte riferendosi ad un oggetto, la seconda volta han detto 1terabit riferendosi ad un altro!è come se dicessi "gigi ce l'ha lungo 20 centimetri, invece quello di luca raggiunge 133,5 millimetri"... non mi sembra sbagliato.

    Ormai si e' pronti a tutto, pur di fare
    informazione... sbagliatadiciamo che a volte c'è anche un eccesso di zelo da parte del lettore nel voler cercare errori! ^_^

    (anche questo post sara' segato, come tutti
    quelli in cui P.I. si vergogna di quello che
    ha scritto).

    Gli do' 10 minuti di vita.scommettiamo? a me sembra un chiarimento riferito all'articolo, inscindibile da esso (perderebbe senso) avvelenato che ce l'ha a quaranta giga
    • Anonimo scrive:
      Re: Byte o bit?

      scusa la prima volta han detto 100gbyte
      riferendosi ad un oggetto, la seconda volta
      han detto 1terabit riferendosi ad un altro!Prima dicono che HANNO RAGGIUNTO i 100GByte per pollice quadrato, e poi che stanno raggiungendo 1Tbit per pollice quadrato.A casa mia un Terabit e' uguale a 128GByte.Quindi pochissimo in piu', quasi nulla, cioe' nulla di cui vantarsi.Per lo piu' dopo aver affermato che gli HD di oggi sono GIA' piu' avanti:
      Tanto per fare un esempio, gli hard disk oggi
      presenti sul mercato di massa raramente si
      spingono oltre i 100-150 Gbit per pollice
      quadro.L'errore e' nel considerare la prima cifra in GByte, mentre dovrebbe essere Gbit.
  • avvelenato scrive:
    Re: +densità, +velocità (credo)
    intuitivamente all'aumentare della densità, dovrebbe aumentare pure la velocità in scrittura...spero qualcuno con conoscenze superiori alle mie possa chiarire meglio avvelenato che anche lui piange ogni qual volta deve fare un defrag
  • Anonimo scrive:
    Byte o bit?
    Credo che P.I. debba fare piu' attenzione a non confondere il Byte col bit.
    "I nostri prototipi di laboratorio sono
    in grado di immagazzinare una densità di
    informazioni pari a 100 Gbyte per pollice
    quadro,E poi scrivono:
    "Stanno per essere sviluppate anche nuove
    tecnologie in grado di portarci al Terabit
    per pollice quadroCioe': Raga', stiamo regredendo, invece di progredire...Ormai si e' pronti a tutto, pur di fare informazione... sbagliata(anche questo post sara' segato, come tutti quelli in cui P.I. si vergogna di quello che ha scritto).Gli do' 10 minuti di vita.
  • Dark-Angel scrive:
    500gb, 1 tb, 50 tb si certo, ma...
    quanto ci vorrà per un defrag??? :Pio con i miei "miseri" 320 gb dovevo impiegarci, a detta di winzozz, 40 ore circa (28 con speed disk) ^^;;;non oso immaginare!
    • Anonimo scrive:
      Re: 500gb, 1 tb, 50 tb si certo, ma...
      io con Linux e 1,2 tera non devo deframmentare mai perche' ext3 non frammenta...
    • Mechano scrive:
      Re: 500gb, 1 tb, 50 tb si certo, ma...
      - Scritto da: Dark-Angel
      quanto ci vorrà per un defrag??? :P

      io con i miei "miseri" 320 gb dovevo
      impiegarci, a detta di winzozz, 40 ore circa
      (28 con speed disk) ^^;;;

      non oso immaginare!Dover deframmentare nel 2003 con tanti file system cazzuti che ci stanno che non necessitano ne di questa pratica ne di controlli dopo spegnimenti e blackout, vuol dire essere proprio messi male. Ma che sistema operativo usi?Io con Linux non uso piu' file system tradizionali da un paio d'anni o piu'.Tra ext3, ReiserFS, JFX, XFS qualche altro ho solo l'imbarazzo della scelta e mi uso quello che voglio a seconda di cosa deve contenere il disco e che prestazioni o necessita' di raggiungere o che sicurezze mi servono (journaling e simili).--Ciao. Mr. Mechano
  • Anonimo scrive:
    Re: Ottimo...!

    beh, io speravo per le memorie rom grandi
    quanto un HD ... :(ROM ???Guarda che le ROM sono memorie a sola lettura..... Magari vorrai dire RAM non volatili !Il problema delle ram non volatili è che a parità di dimensioni rispetto agli HD riuscirebbero ad incamerare molti meno dati e sarebbero + lente in scrittura e + costose, quindi non conviene utilizzarle.
  • Anonimo scrive:
    Re: Ottimo...!
    - Scritto da: Anonimo

    - Scritto da: Anonimo

    ...ma per i tipi come me che sono ancora

    fermi ai 20 GB (di cui 16 liberi con
    win2k,

    suite macromedia, msoffice, framework.net
    e

    tanti accessori e mb di dati del mio

    lavoro), sono pure troppi.

    Si ma tu lascia stare il discorso
    dimensioni... quello che è + importante per
    adesso è il transfer rate... il vero collo
    di bottiglia dei pc oggi sono gli HD... con
    un disco veramente veloce vedresti il tuo pc
    completamente diverso, garantito !beh, io speravo per le memorie rom grandi quanto un HD ... :(
  • Anonimo scrive:
    Re: Ottimo...!
    - Scritto da: Anonimo
    ...ma per i tipi come me che sono ancora
    fermi ai 20 GB (di cui 16 liberi con win2k,
    suite macromedia, msoffice, framework.net e
    tanti accessori e mb di dati del mio
    lavoro), sono pure troppi.Si ma tu lascia stare il discorso dimensioni... quello che è + importante per adesso è il transfer rate... il vero collo di bottiglia dei pc oggi sono gli HD... con un disco veramente veloce vedresti il tuo pc completamente diverso, garantito !
  • Anonimo scrive:
    Ottimo...!
    ...ma per i tipi come me che sono ancora fermi ai 20 GB (di cui 16 liberi con win2k, suite macromedia, msoffice, framework.net e tanti accessori e mb di dati del mio lavoro), sono pure troppi.
  • Anonimo scrive:
    Si ma quando però ???
    Si sentono questi bei discorsi sugli HD del futuro e devo dire che la cosa mi intriga molto... ma quando vedremo sugli scaffali questi nuovi dischi superveloci e supercapienti ???
Chiudi i commenti