Hong Kong (Cina) – Passata agli inizi degli anni ’90 dalla pubblicazione di fumetti allo sviluppo di prodotti hi-tech, Culturecom Holdings si è detta pronta a invadere il mercato cinese con una nuova CPU, chiamata V-Dragon, sviluppata in collaborazione con IBM.
Il nuovo processore, che segue le orme di altri “dragon-chip” made in China , è stata progettata per supportare in modo nativo il sistema operativo Midori di Transmeta, basato sul kernel di Linux, e per rispondere ai criteri stabiliti dal governo cinese per la tecnologia informatica.
V-Dragon è un processore indirizzato ai network computer, ai thin client e ai dispositivi mobili. Basato su un nucleo RISC a 32 bit, il chip integra un’interfaccia di rete Ethernet 10/100, un controller USB, un controller di memoria, il supporto ai touch pad e un sistema per la gestione dei consumi.
Culturecom ha spiegato che la propria CPU è in grado, grazie alla tecnologia Character Generating, di accelerare la generazione a video di 32.000 dei 50.000 caratteri usati nella lingua cinese tradizionale e semplificata: questo consente di alleggerire il carico di lavoro sulla CPU rispetto all’utilizzo dei font TrueType e di ridurre l’occupazione di memoria.
-
Si ma quando però ???
Si sentono questi bei discorsi sugli HD del futuro e devo dire che la cosa mi intriga molto... ma quando vedremo sugli scaffali questi nuovi dischi superveloci e supercapienti ???AnonimoOttimo...!
...ma per i tipi come me che sono ancora fermi ai 20 GB (di cui 16 liberi con win2k, suite macromedia, msoffice, framework.net e tanti accessori e mb di dati del mio lavoro), sono pure troppi.AnonimoRe: Ottimo...!
- Scritto da: Anonimo> ...ma per i tipi come me che sono ancora> fermi ai 20 GB (di cui 16 liberi con win2k,> suite macromedia, msoffice, framework.net e> tanti accessori e mb di dati del mio> lavoro), sono pure troppi.Si ma tu lascia stare il discorso dimensioni... quello che è + importante per adesso è il transfer rate... il vero collo di bottiglia dei pc oggi sono gli HD... con un disco veramente veloce vedresti il tuo pc completamente diverso, garantito !AnonimoRe: Ottimo...!
- Scritto da: Anonimo> > - Scritto da: Anonimo> > ...ma per i tipi come me che sono ancora> > fermi ai 20 GB (di cui 16 liberi con> win2k,> > suite macromedia, msoffice, framework.net> e> > tanti accessori e mb di dati del mio> > lavoro), sono pure troppi.> > Si ma tu lascia stare il discorso> dimensioni... quello che è + importante per> adesso è il transfer rate... il vero collo> di bottiglia dei pc oggi sono gli HD... con> un disco veramente veloce vedresti il tuo pc> completamente diverso, garantito !beh, io speravo per le memorie rom grandi quanto un HD ... :(AnonimoRe: Ottimo...!
> beh, io speravo per le memorie rom grandi> quanto un HD ... :(ROM ???Guarda che le ROM sono memorie a sola lettura..... Magari vorrai dire RAM non volatili !Il problema delle ram non volatili è che a parità di dimensioni rispetto agli HD riuscirebbero ad incamerare molti meno dati e sarebbero + lente in scrittura e + costose, quindi non conviene utilizzarle.Anonimo500gb, 1 tb, 50 tb si certo, ma...
quanto ci vorrà per un defrag??? :Pio con i miei "miseri" 320 gb dovevo impiegarci, a detta di winzozz, 40 ore circa (28 con speed disk) ^^;;;non oso immaginare!Dark-AngelRe: 500gb, 1 tb, 50 tb si certo, ma...
io con Linux e 1,2 tera non devo deframmentare mai perche' ext3 non frammenta...AnonimoRe: 500gb, 1 tb, 50 tb si certo, ma...
- Scritto da: Dark-Angel> quanto ci vorrà per un defrag??? :P> > io con i miei "miseri" 320 gb dovevo> impiegarci, a detta di winzozz, 40 ore circa> (28 con speed disk) ^^;;;> > non oso immaginare!Dover deframmentare nel 2003 con tanti file system cazzuti che ci stanno che non necessitano ne di questa pratica ne di controlli dopo spegnimenti e blackout, vuol dire essere proprio messi male. Ma che sistema operativo usi?Io con Linux non uso piu' file system tradizionali da un paio d'anni o piu'.Tra ext3, ReiserFS, JFX, XFS qualche altro ho solo l'imbarazzo della scelta e mi uso quello che voglio a seconda di cosa deve contenere il disco e che prestazioni o necessita' di raggiungere o che sicurezze mi servono (journaling e simili).--Ciao. Mr. MechanoMechanoByte o bit?
Credo che P.I. debba fare piu' attenzione a non confondere il Byte col bit.> "I nostri prototipi di laboratorio sono> in grado di immagazzinare una densità di> informazioni pari a 100 Gbyte per pollice> quadro,E poi scrivono:> "Stanno per essere sviluppate anche nuove > tecnologie in grado di portarci al Terabit> per pollice quadroCioe': Raga', stiamo regredendo, invece di progredire...Ormai si e' pronti a tutto, pur di fare informazione... sbagliata(anche questo post sara' segato, come tutti quelli in cui P.I. si vergogna di quello che ha scritto).Gli do' 10 minuti di vita.AnonimoRe: +densità, +velocità (credo)
intuitivamente all'aumentare della densità, dovrebbe aumentare pure la velocità in scrittura...spero qualcuno con conoscenze superiori alle mie possa chiarire meglio avvelenato che anche lui piange ogni qual volta deve fare un defragavvelenatoRe: Byte o bit?
- Scritto da: Anonimo> Credo che P.I. debba fare piu' attenzione a> non confondere il Byte col bit.> > > "I nostri prototipi di laboratorio sono> > in grado di immagazzinare una densità di> > informazioni pari a 100 Gbyte per pollice> > quadro,> esatto> E poi scrivono:> > > "Stanno per essere sviluppate anche nuove> > tecnologie in grado di portarci al Terabit> > per pollice quadro> esatto> Cioe': Raga', stiamo regredendo, invece di> progredire...perché?scusa la prima volta han detto 100gbyte riferendosi ad un oggetto, la seconda volta han detto 1terabit riferendosi ad un altro!è come se dicessi "gigi ce l'ha lungo 20 centimetri, invece quello di luca raggiunge 133,5 millimetri"... non mi sembra sbagliato.> > Ormai si e' pronti a tutto, pur di fare> informazione... sbagliatadiciamo che a volte c'è anche un eccesso di zelo da parte del lettore nel voler cercare errori! ^_^> > (anche questo post sara' segato, come tutti> quelli in cui P.I. si vergogna di quello che> ha scritto).> > Gli do' 10 minuti di vita.scommettiamo? a me sembra un chiarimento riferito all'articolo, inscindibile da esso (perderebbe senso) avvelenato che ce l'ha a quaranta gigaavvelenatoRe: Byte o bit?
> scusa la prima volta han detto 100gbyte> riferendosi ad un oggetto, la seconda volta> han detto 1terabit riferendosi ad un altro!Prima dicono che HANNO RAGGIUNTO i 100GByte per pollice quadrato, e poi che stanno raggiungendo 1Tbit per pollice quadrato.A casa mia un Terabit e' uguale a 128GByte.Quindi pochissimo in piu', quasi nulla, cioe' nulla di cui vantarsi.Per lo piu' dopo aver affermato che gli HD di oggi sono GIA' piu' avanti:> Tanto per fare un esempio, gli hard disk oggi> presenti sul mercato di massa raramente si> spingono oltre i 100-150 Gbit per pollice> quadro.L'errore e' nel considerare la prima cifra in GByte, mentre dovrebbe essere Gbit.AnonimoIn arrivo i dischi ...
Ultra densi e ultra veloci e anche la nuova versione di winsdoz ultra pesante e con un filesystem sempre peggio usato per rallentare cmq a forza l' accesso al disco...Cito:IO: perche' e' dal 1984 che unix sa come accedere a un disco in modo efficente e oggi nel 2003 ancora si usa fat e ntfs che frammentano e sono lentissimi ?Dipendente Microsoft: perche' poi chi vende harddisk non avrebbe interesse a vendere dischi + veloci ...AnonimoRe: In arrivo i dischi ...
> IO: perche' e' dal 1984 che unix sa come> accedere a un disco in modo efficente e oggi> nel 2003 ancora si usa fat e ntfs che> frammentano e sono lentissimi ?ma che sei, pagato da M$ per diffondere str.nzat3 su linux?il metodo first free che M$ utilizza provoca più rapidamente la frammentazione del disco del first fit dei fs più comuni per unix, ma è più veloce nello scrivere su disco per ovvi motivi (la meccanica del disco non deve ruotare per raggiungere una sezione contenente spazio libero a sufficienza, la scrittura first inizia invece + - dove ti trovi). Per quanto riguarda la successiva lettura, ovviamente il metodo first free provoca rapidamente dei problemi perchè i files sono scritti a raglio sul disco, ma M$ ha fatto il defragger in modo che non si limitasse a spostare i file per riscriverli in modo che siano continui, ma anche di rendere contigui file diversi che il sistema ha precedentemente caricato contiguamente e di spostare nei settori più veloci i dati più richuiesti.La tua domanda doveva essere, al famoso dipendente M$ (tra l'altro è mio cuggino) "perchè M$ usa dei fs estremamente veloci e riesce lo stesso a fare risultare le operazioni di scrittura e lettura diverse volte più lente degli unix?"E a Linus, appena lo vedi, "ma perchè caspio non prendete in considerazione sul fs di default di utilizzare il metodo first free e creare un buon defrag stile M$ che ottimizzi i file non in base al primo spazio disponibile di dimensioni adatte quando furono scritti ma piuttosto in base all'utilizzo che ne fa il sistema, così migliorate ulteriormente le prestazioni di linuzzo nelle operazioni su disco?"> Dipendente Microsoft: perche' poi chi vende> harddisk non avrebbe interesse a vendere> dischi + veloci ...si, certo, mio cuggino, quello che gli scrive i bug...AnonimoRe: Penso che ...
dipenda ANCHE dal fatto che windows (che palle 'sto "winzoz"!) debba essere compatibile versoilpassato. Nato con un MS-DOS, una cpu molto vecchi arispetto a quanto faccio oggi.Linux questi problemi non li ha. Linux può contare soprattutto su utenti che (in generale!9 son più smaliziati, non ti chiamano per sapere come fa a girare un floppy quadrato (a me è successo ...), senza conrtare che ha preso spunto da uno SCO-UNIX che girava su macchine molto più potenti già dall aprima version.Il fardello della compatibilità verso il basso non c'è.Insomma mi femo qui. Che palle tuttele volte 'sta storia linux - windows. Neanche in palestra sotto la doccia su chi cel'ha più lungo.La notizia parla di HD futuri e di metodi di memorizzazione. Vogliamo parlare di quello?IO mi chiedo nvece, visto che già oggi gli 80Gb sono anche troppi per un home computer (hey, ma non trovodi meglio come prezzo/prestazioni!) che siano altri gli obbiettivi da raggiungere!Mi immagino una sorta di RAID integrato (di tipo mirroring, ovviamente!), contando che lamaggior densità dovrebbe portare ad un migliore transfer rate (ancheseek time? boh!). SOno convinto che le prestzioni non si fanno SOLO con gli RPM, con i prosssimi 10.000 rpm e gli scsi a 15 - 18.000.Ma l'evoluzione tecnologica passa anche attraverso passi inutili .. vedi ATA66, 100, 133 e 150: nessuno di questi step era fondamentale .. ma 4 passi in generale hanno migliorato. e speriamo continuino, perchè gli ultimi SATA sono più lenti dei Parallel, ed il 10.000RPM di WesterD costa più dello SCSI IBM!!!Per tutti i delatori: vorrei vedere nei panni di BILL G. quanti si sarebbero comportati da "filantropi" e non tirato l'acqua al proprio mulino.The RaptusRe: Byte o bit?
- Scritto da: Anonimo> Credo che P.I. debba fare piu' attenzione a> non confondere il Byte col bit.> > > "I nostri prototipi di laboratorio sono> > in grado di immagazzinare una densità di> > informazioni pari a 100 Gbyte per pollice> > quadro,> > E poi scrivono:> > > "Stanno per essere sviluppate anche nuove> > tecnologie in grado di portarci al Terabit> > per pollice quadro> > Cioe': Raga', stiamo regredendo, invece di> progredire...> > Ormai si e' pronti a tutto, pur di fare> informazione... sbagliata> > (anche questo post sara' segato, come tutti> quelli in cui P.I. si vergogna di quello che> ha scritto).> > Gli do' 10 minuti di vita.Eh no, quello che è sbagliato è non applicare gli standard sulle unità di misura binarie che correttamente danno 1 TeraByte= 1000 GigaByteLeggete e per favore diffondete la (vecchia) notizia:http://physics.nist.gov/cuu/Units/binary.htmlAnonimoRe: Byte o bit?
> A casa mia un Terabit e' uguale a 128GByte.Dovresti aggiornare casa tua allora.http://physics.nist.gov/cuu/Units/binary.htmlAnonimoRe: In arrivo i dischi ...
- Scritto da: Anonimo> IO: perche' e' dal 1984 che unix sa come> accedere a un disco in modo efficente e oggi> nel 2003 ancora si usa fat e ntfs che> frammentano e sono lentissimi ?> Dipendente Microsoft: perche' poi chi vende> harddisk non avrebbe interesse a vendere> dischi + veloci ...Goditi il tuo linux che non defragga.. dovresti esserne felice.Io pero' sento spesso frullare l'HD da solo sotto Linux.. e quando il controller era ancora PIO e non DMA era impossibile manovrarlo poi pure il mouse andava a scatti.Secondo me defragga giornalmente da solo..AnonimoRe: Byte o bit?
- Scritto da: Anonimo> > > A casa mia un Terabit e' uguale a> 128GByte.> > Dovresti aggiornare casa tua allora.> > http://physics.nist.gov/cuu/Units/binary.html> Ma che c'entra?1 Terabit = 1024 Gbit 1024 Gbit / 8 = 128 GByteAnche se fai i conti con 1000 anzichè 1024 la sostanza del discorso non cambia...AnonimoRe: +densità, +velocità (credo)
- Scritto da: avvelenato> intuitivamente all'aumentare della densità,> dovrebbe aumentare pure la velocità in> scrittura...> > > spero qualcuno con conoscenze superiori alle> mie possa chiarire meglioEssendo le informazioni più "dense" la meccanica deve "fare meno strada" per scriverle sul disco e quindi ci metterà meno tempo.Esempio (molto) stupido (e semplicistico): per scrivere un file da 200 K adesso il disco deve fare 1/4 di giro, in futuro, a causa della maggiore densità la stessa informazione da 200 K potrà essere scritta in 1/8 di giro.A partità di velocità di rotazione il tempo impieato sarà minore.Un paragone (anche questo semplicistico ed idiota): ammettiamo di dovere stampare un testo di 10000 caratteri in carattere 12 e che questa stampa occupi 10 pagine, la stampante ci metterà 15 secondi; se aumenti la densità delle informazioni riducendo le dimensioni del carattere a 8, lo stesso documento diventerà di 8 pagine e la stampante ci metterà meno a stampare.AlexAnonimoRe: Penso che ...
- Scritto da: The Raptus> IO mi chiedo nvece, visto che già oggi gli> 80Gb sono anche troppi per un home computer> (hey, ma non trovodi meglio come> prezzo/prestazioni!) che siano altri gli> obbiettivi da raggiungere!Beh, per chi ha fastweb (come me) 80-100 giga fanno presto a finire... :P> Mi immagino una sorta di RAID integrato (di> tipo mirroring, ovviamente!), contando che> lamaggior densità dovrebbe portare ad un> migliore transfer rate (ancheseek time?> boh!). SOno convinto che le prestzioni non> si fanno SOLO con gli RPM, con i prosssimi> 10.000 rpm e gli scsi a 15 - 18.000.> Ma l'evoluzione tecnologica passa anche> attraverso passi inutili .. vedi ATA66, 100,> 133 e 150: nessuno di questi step era> fondamentale .. ma 4 passi in generale hanno> migliorato. e speriamo continuino, perchè> gli ultimi SATA sono più lenti dei Parallel,> ed il 10.000RPM di WesterD costa più dello> SCSI IBM!!!Io spero che i tagli + piccoli calino di prezzo, così ne compro 2 e li metto in raid :DciaoAnonimoRe: Ottimo...!
- Scritto da: Anonimo> > beh, io speravo per le memorie rom grandi> > quanto un HD ... :(> > ROM ???> Guarda che le ROM sono memorie a sola> lettura..... Magari vorrai dire RAM non> volatili !> Il problema delle ram non volatili è che a> parità di dimensioni rispetto agli HD> riuscirebbero ad incamerare molti meno dati> e sarebbero + lente in scrittura e +> costose, quindi non conviene utilizzarle.sarebbe una questione di evoluzione, ma almeno non ci sarebbero più parti meccanicheAnonimoRe: Byte o bit?
- Scritto da: Anonimo> > - Scritto da: Anonimo> > > > > A casa mia un Terabit e' uguale a> > 128GByte.> > > > Dovresti aggiornare casa tua allora.> > > > > http://physics.nist.gov/cuu/Units/binary.html> > > > Ma che c'entra?> > 1 Terabit = 1024 Gbit > 1024 Gbit / 8 = 128 GByte> > Anche se fai i conti con 1000 anzichè 1024> la sostanza del discorso non cambia...kilo (1000)mega (1 milione)giga (1 miliardo)tera (1000 miliardi)1 Terabit = 1000 miliardi di bitle potenze di 2, come sai, si introducono per i multipli dei bit (byte) ognuno composto da 8 bit.Se fai i conti con 1000 o con 1024 se non cambia la sostanza del discorso cmq cambia il risultato!Anonimoarticoli poco importanti
gli articoli che preannunciano dischi capientissimi, ram stra-veloci, etc.. lasciano un po' il tempo che trovano...tanto si sa che ci vogliono anni ed anni e prima o poi si arriva a tutto 8 )AkiroRe: articoli poco importanti
- Scritto da: Akiro> gli articoli che preannunciano dischi> capientissimi, ram stra-veloci, etc..> lasciano un po' il tempo che trovano...> tanto si sa che ci vogliono anni ed anni e> prima o poi si arriva a tutto 8 )a me però non dispiace essere aggiornato su quello che le grandi aziende del settore stanno facendo...AnonimoRe: articoli poco importanti
Ma gli rispondi pure a questo trollone?Oppure è un lamer!AnonimoRe: 500gb, 1 tb, 50 tb si certo, ma...
- Scritto da: Anonimo> io con Linux e 1,2 tera non devo> deframmentare mai perche' ext3 non> frammenta...io non uso il computer, io uso la panda. e nemmeno lei deframmenta.tie'.LockOneMemorie solide ?
ma è possibile che nel 2003 siamo ancora dietro ai dischi magnetici e soprattutto MECCANICI ???Quando arriveranno ste benedette memorie solide ?E' possibile che nel mio portatile l'unica parte in movimento sia il disco fisso (cdrom escluso). ?Lo sanno tutti che le parti meccaniche sono le prime a rompersi/usurarsi, e allora perchè nessuno spinge per le memorie solide ?Uffa !MemoRemigiGli hard disk come i floppies
Praticamente saranno da buttare appena si smagnetizzano hard ddisk pagati magari 500E contro un cd-rw che costa 1E. E' una novità del cazzo che rende i dati insicuri. La soluzione è sempre e comunque: Memorie ottiche o solide. Lì è la sfida, e soprattutto i prezzi: DEVONO ESSERE BASSI E NON SOLO PER IL DUCE.AnonimoRe: Ottimo...!
- Scritto da: Anonimo> > - Scritto da: Anonimo> > > beh, io speravo per le memorie rom> grandi> > > quanto un HD ... :(> > > > ROM ???> > Guarda che le ROM sono memorie a sola> > lettura..... Magari vorrai dire RAM non> > volatili !> > Il problema delle ram non volatili è che a> > parità di dimensioni rispetto agli HD> > riuscirebbero ad incamerare molti meno> dati> > e sarebbero + lente in scrittura e +> > costose, quindi non conviene utilizzarle.> > sarebbe una questione di evoluzione, ma> almeno non ci sarebbero più parti meccaniche> Non è neanche quello il problema reale: quello che frena le SRAM è che il costo per ogni mega è più di dieci volte quello degli HD. Prima o poi si arriva, come i monitor TFT. Una volta costavano un patrimonio, nessuno li comprava per cui i negozi non li avevano neanche in catalogo. Oggi invece stanno andando abbastanza, nonostante la qualità faccia davvero schifo. No, non mi venite a dire "ma non hai visto questo, non hai visto quello" ecc., ne ho visti e ne vedo tanti ogni giorno e non c'è pezza: la definizione di un monitor normale è ancora un miraggio; per non parlare delle animazioni e dei movimenti delle finestre: si lasciano dietro delle scie da paura. E la stessa cosa la vedo nelle TV, anche le più blasonate.Tit.AnonimoRe: Memorie solide ?
- Scritto da: MemoRemigi> ma è possibile che nel 2003 siamo ancora> dietro ai dischi magnetici e soprattutto> MECCANICI ???> > Quando arriveranno ste benedette memorie> solide ?> > E' possibile che nel mio portatile l'unica> parte in movimento sia il disco fisso (cdrom> escluso). ?> > Lo sanno tutti che le parti meccaniche sono> le prime a rompersi/usurarsi, e allora> perchè nessuno spinge per le memorie solide> ?> > Uffa !perchè evidentemente non sono così a portata di mano come sembra,, comunque quando mi capita di ripare pc alla fine il componente che si guasta mano in assoluto è il disco fisso, scheda madre, processore, ram e scheda video sono quelle che si guastano di normaAnonimoRe: interessante ma esagerato
> Per stoccare un terabyte di informazione> cartacea ci vuole un edificio 16volte piu> grande dell'Empire state Building?Si usa dire cosi', credo, perche' cosi' uno visualizza e si rende conto delle capacita'. Per me ha senso.Andando in topic, comunque, di questa cosa si parla tanto ma sul mercato ancora s'e' visto pochino. Vaporware?AnonimoRe: interessante ma NON esagerato
Non credo che PI le spari a caso, tanto è vero che lo stesso paragone (del grattacielo) è riportato pari pari su il SOLE 24 ORE (24 luglio 2003, pag.11). Pensi siano poco seri anche questi tizi?AnonimoGUARDA CHE E' ESATTO
Caro amico, prima di dire a qualcuno di aggiornare casa sua, accendi il cervello.Ora lo scrivo piano piano:1 Terabit = 1000 Gigabit = 128 Gigabyte1 Terabyte = 1000 Gigabyte = 8000 GigabitCome puoi vedere dal primo e terzo membro della prima equazione (non è difficile, coraggio....) il nostro amico di prima ha perfettamente ragione.Studia ! 8)Anonimo[OT] Re: Gli hard disk come i floppies
perché "gli hard disk" senza il plurale e "i floppies" con il plurale?le parole straniere sono invarianti nel plurale.napodano[OT] Re: Gli hard disk come i floppies
Probabilmente perché "floppies" è più pronunciabile di "hard disks", dove il suono "sks" è decisamente poco comune nella lingua italiana.E a parte questo io sono contrario all'uso della forma singolare per le parole straniere, e non mi interessa l'opinione di chi ha deciso di inventare questa regola, che induce solo ad errori, quando poi ci si trova a dover affrontare l'apprendimento della lingua stessa (ad es. inglese).CIAO :8AnonimoRe: GUARDA CHE E' ESATTO
> 1 Terabit = 1000 Gigabit = 128 Gigabyte> > 1 Terabyte = 1000 Gigabyte = 8000 Gigabit> scusa ma:1000 / 8 = 125è ininfluente nel discorso iniziale comunqueAnonimoRe: Memorie solide ?
- Scritto da: Anonimo> perchè evidentemente non sono così a portata> di mano come sembra,, comunque quando miMi sa che purtroppo hai ragione :(> capita di ripare pc alla fine il componente> che si guasta mano in assoluto è il disco> fisso, scheda madre, processore, ram e> scheda video sono quelle che si guastano di> normaIo ho visto più dischi fissi rotti che altri componenti.Ho visto certa gente dare dei colpi ai pc accesi...E comunque è innegabile che la parte più a rischio su un portarile è il disco fisso.MemoRemigiRe: articoli poco importanti
> a me però non dispiace essere aggiornato su> quello che le grandi aziende del settore> stanno facendo...si però potevan anke metterla come notizia flash... tanto da qui a 10 anni fanno in tempo a cambiare completamente approccio al problema...AkiroRe: Byte o bit?
- Scritto da: Anonimo> > - Scritto da: Anonimo> > > > - Scritto da: Anonimo> > > > > > > A casa mia un Terabit e' uguale a> > > 128GByte.> > > > > > Dovresti aggiornare casa tua allora.> > > > > > > > > http://physics.nist.gov/cuu/Units/binary.html> > > > > > > Ma che c'entra?> > > > 1 Terabit = 1024 Gbit > > 1024 Gbit / 8 = 128 GByte> > > > Anche se fai i conti con 1000 anzichè 1024> > la sostanza del discorso non cambia...> > kilo (1000)> mega (1 milione)> giga (1 miliardo)> tera (1000 miliardi)> > 1 Terabit = 1000 miliardi di bit> > le potenze di 2, come sai, si introducono> per i multipli dei bit (byte) ognuno> composto da 8 bit.> Se fai i conti con 1000 o con 1024 se non> cambia la sostanza del discorso cmq cambia> il risultato!> Infatti sarebbero ancora meno: 1Tbit = 125GbytesIl risultato cambia di pochissimo quindi il suo commento è fondato.Inoltre ti ricordo che i multipli in informatica si calcolano in potenze di due:2^10 = Kilo2^20 = Mega2^30 = Giga2^40 = Tera2^50 = Peta2^60 = Exa2^70 = Yotta2^80 = Zettae chi ne ha più ne metta (e così faccio pure la rima).E questo indipendentemente dal SI e dall'URL che hai mandato, è dagli albori dell'informatica che è così e non comincio certo a cambiare adesso. Anche perchè usando il fattore 1000 del SI ci si ritroverebbe a calcolare con frazioni di bit il che è estremamente scomodo.AnonimoRe: In arrivo i dischi ...
- Scritto da: Anonimo> > IO: perche' e' dal 1984 che unix sa come> > accedere a un disco in modo efficente e> oggi> > nel 2003 ancora si usa fat e ntfs che> > frammentano e sono lentissimi ?> > ma che sei, pagato da M$ per diffondere> str.nzat3 su linux?> il metodo first free che M$ utilizza provoca> più rapidamente la frammentazione del disco> del first fit dei fs più comuni per unix, ma> è più veloce nello scrivere su disco per> ovvi motivi (la meccanica del disco non deve> ruotare per raggiungere una sezione> contenente spazio libero a sufficienza, la> scrittura first inizia invece + - dove ti> trovi).dimentichi che i files in un disco sono molto più spesso letti che scritti. Quindi al limite chi se ne frega se ci impiega un po' più di tempo per fare la sua scrittura quando tutte le letture successive schizzano?> Per quanto riguarda la successiva lettura,> ovviamente il metodo first free provoca> rapidamente dei problemi perchè i files sono> scritti a raglio sul disco, ma M$ ha fatto> il defragger in modo che non si limitasse a> spostare i file per riscriverli in modo che> siano continui, ma anche di rendere contigui> file diversi che il sistema ha> precedentemente caricato contiguamente e di> spostare nei settori più veloci i dati più> richuiesti.E questa dove l'hai sentita? Il defrag sposta semplicemente i files in modo che siano contigui, non fa null'altro, al limite mette qualche file di sistema all'inizio del disco, ma è tutto.Infatti se osservi come vengono spostati i files dal defrag ti rendi conto che è ben poco efficace.Nel 93 c'era un programma che faceva parte dei pctools e che si chiamava compress ed era molto più rapido ed efficace del defragmenter attuale, solo che all'epoca non esistevano i nomi lunghi e i dischi non facevano più di 512MB, altrimenti lo userei ancora.> La tua domanda doveva essere, al famoso> dipendente M$ (tra l'altro è mio cuggino)> "perchè M$ usa dei fs estremamente veloci e> riesce lo stesso a fare risultare le> operazioni di scrittura e lettura diverse> volte più lente degli unix?"Perchè non sono dei file systems veloci, sono dei files systems semplici. La loro semplicità permette di trattarli in maniera veloce, ma non sono molto efficaci.> E a Linus, appena lo vedi, "ma perchè caspio> non prendete in considerazione sul fs di> default di utilizzare il metodo first free e> creare un buon defrag stile M$ che ottimizzi> i file non in base al primo spazio> disponibile di dimensioni adatte quando> furono scritti ma piuttosto in base> all'utilizzo che ne fa il sistema, così> migliorate ulteriormente le prestazioni di> linuzzo nelle operazioni su disco?"Non è Linus che decide sui file systems, ce ne sono diversi su Linux e ognuno ha i suoi vantaggi e i suoi svantaggi. Comunque scegliendo bene il file system si possono avere più vantaggi che svantaggi. Il tutto dipende da "per cosa lo usi".> > Dipendente Microsoft: perche' poi chi> vende> > harddisk non avrebbe interesse a vendere> > dischi + veloci ...> si, certo, mio cuggino, quello che gli> scrive i bug...Ah, è tuo cugggino? :-)AnonimoRe: Penso che ...
- Scritto da: The Raptus> dipenda ANCHE dal fatto che windows (che> palle 'sto "winzoz"!) debba essere> compatibile versoilpassato. Nato con un> MS-DOS, una cpu molto vecchi arispetto a> quanto faccio oggi.> Linux questi problemi non li ha. Linux può> contare soprattutto su utenti che (in> generale!9 son più smaliziati, non ti> chiamano per sapere come fa a girare un> floppy quadrato (a me è successo ...), senza> conrtare che ha preso spunto da uno SCO-UNIX> che girava su macchine molto più potenti già> dall aprima version.Il fardello della> compatibilità verso il basso non c'è.> Insomma mi femo qui. Che palle tuttele volte> 'sta storia linux - windows. Neanche in> palestra sotto la doccia su chi cel'ha più> lungo.1. La compatibilità c'è eccome e infatti Linux sa usare pure i FAT e tutti i files sistems più vecchi (p.e. minix), senza contare altre compatibilità.2. Linux non ha copiato proprio nulla da SCO, semmai è il contrario. Nel 97 stavo discutendo con un collega che usava SCO in ufficio e Linux a casa e mi diceva che SCO era una grossa merda e che aveva continuamente problemi. Da cui deduco che SCO era a livelli inferiori al Linux già nel 97. Figuriamoci adesso.3. Non vedo dove stia la compatibilità Windows tra FAT e NTFS4. Non vedo dove stia la compatibilità Windows tra Windows 3.1 e Windows XP.Quindi se quelli di MS non sono riusciti a fare con Windows quello che è stato fatto con Linux non è per questioni di compatibilità in dietro o in avanti, ma per questione di costi. Se una cosa costa troppo non la fanno e basta, mentre su Linux quel problema non si pone, se qualcuno desidera farlo lo fa, indipendentemente dai costi.Per la storia Linux-Windows, non sono io che l'ho iniziata e trovo pure io che sia completamente OT, ma mi sento obligato a rispondere quando vedo cose non completamente giuste.> La notizia parla di HD futuri e di metodi di> memorizzazione. Vogliamo parlare di quello?Volentieri.> IO mi chiedo nvece, visto che già oggi gli> 80Gb sono anche troppi per un home computer> (hey, ma non trovodi meglio come> prezzo/prestazioni!) che siano altri gli> obbiettivi da raggiungere!Io attualmente a casa ho 2x160GB in RAID1 e sono più che sufficienti per farci di tutto. Non calcolo gli altri GB dei "vecchi dischi".> Mi immagino una sorta di RAID integrato (di> tipo mirroring, ovviamente!), contando che> lamaggior densità dovrebbe portare ad un> migliore transfer rate (ancheseek time?> boh!).Non è una buona idea, un HD può rompersi in vari modi. È vero che il piatto può perdere la magnetizzazione, ma puoi anche avere problemi di alimentazione, un motore rotto, il controller rotto, una sovratemperatura che ti rovina il supporto o le teste, ...Se hai una sola scatola con dentro due piatti rischi unicamente di vederteli saltare tutti e due nello stesso tempo. Per un RAID è preferibile usare due HD meccanicamente ben separati. Meglio ancora se su alimentazioni diverse ridondanti e su due cavi separati.Ti ricordo inoltre che un RAID non protegge da manipolazioni errate, quindi rischi sempre e comunque di perdere i dati, nulla vale un buon backup su tape.> SOno convinto che le prestzioni non> si fanno SOLO con gli RPM, con i prosssimi> 10.000 rpm e gli scsi a 15 - 18.000.I miei dischi da 160GB sono dei 5000 e vanno benissimo, lo scopo di quei dischi è lo stoccaggio di informazione, non l'accesso rapido. Come sempre tutto dipende dall'uso che se ne fa.> Ma l'evoluzione tecnologica passa anche> attraverso passi inutili .. vedi ATA66, 100,> 133 e 150: nessuno di questi step era> fondamentale .. ma 4 passi in generale hanno> migliorato. e speriamo continuino, perchè> gli ultimi SATA sono più lenti dei Parallel,> ed il 10.000RPM di WesterD costa più dello> SCSI IBM!!!Giusto, però se si accordassero meglio eviterebbero di farci cambiare tutta la circuiteria una volta all'anno ma svilupperebbero subito uno standard decente.Il problema resterebbe in ogni caso quello della tecnologia che avanza molto più in fretta di quanto gli ingenieri riescano a gestire. Quindi al momento in cui uno standard prende forma è già vecchio ed è ora di rimpiazzarlo con uno nuovo.Il risultato è spesso un bel "il mio è migliore del tuo", che non ci porta da nessuna parte.> Per tutti i delatori: vorrei vedere nei> panni di BILL G. quanti si sarebbero> comportati da "filantropi" e non tirato> l'acqua al proprio mulino.Nessuno ha detto che si sarebbe comportato differentemente da B.G., però se io avessi fatto come Billy a questo punto sarei criticato tanto quanto lui, fa parte del gioco.Inoltre questo non giustifica la passività della gente e peggio ancora dei governi.Io vorrei vedere se nei panni di Saddam tu ti saresti comportato diversamente. O se nei panni di Osama o nei panni di Hitler o nei panni di chissà chi altro.Però questa gente è stata comunque giustamente criticata, non perchè gli altri si sarebbero comportati diversamente, ma perchè la situazione che si è creata era insostenibile.Nel caso di B.G. la situazione è insostenibile nel quadro dello sviluppo di un mercato libero nel campo dell'informatica e più precisamente nel campo degli OS, delle suite da ufficio e dei browsers.AnonimoRe: In arrivo i dischi ...
linux non defragga ... io dopo 1 anno.. dopo aver aggiornato 2 volte tutto il sistema dopo centinaia di e centinaia di giga che sono passati sul disco.. scaricati masterizzati cancellati spostati etc etc durante l' fsck forzato per puro test vedevo delle frammentazioni inferiori all' 1% ...se a te scrullava di continuo probabilmente perche' non avevi abbastanza ram e andava di swap ...io ho un p4 2500 con 512 mega di ram e il disco non gira almeno che non avii un prgoramma .... la stessa cosa capita sul mio gateway che di ram ne ha solo 64 mega...AnonimoRe: In arrivo i dischi ...
- Scritto da: Anonimo> linux non defragga ... io dopo 1 anno.. dopo> aver aggiornato 2 volte tutto il sistema> dopo centinaia di e centinaia di giga che> sono passati sul disco.. scaricati> masterizzati cancellati spostati etc etc> durante l' fsck forzato per puro test vedevo> delle frammentazioni inferiori all' 1% ...> se a te scrullava di continuo probabilmente> perche' non avevi abbastanza ram e andava di> swap ...> io ho un p4 2500 con 512 mega di ram e il> disco non gira almeno che non avii un> prgoramma .... la stessa cosa capita sul mio> gateway che di ram ne ha solo 64 mega...Non hai capito, è solo un trollone, a mio avviso il Linux non lo ha neppure mai visto.La mia macchina ha 1G di RAM e non swappa mai, era tutt'altro con la vecchia macchina che aveva 16M e che praticamente lavorava sul disco.AnonimoRe: In arrivo i dischi ...
- Scritto da: Anonimo> linux non defragga ... io dopo 1 anno.. dopo> aver aggiornato 2 volte tutto il sistema> dopo centinaia di e centinaia di giga che> sono passati sul disco.. scaricati> masterizzati cancellati spostati etc etc> durante l' fsck forzato per puro test vedevo> delle frammentazioni inferiori all' 1% ...> se a te scrullava di continuo probabilmente> perche' non avevi abbastanza ram e andava di> swap ...> io ho un p4 2500 con 512 mega di ram e il> disco non gira almeno che non avii un> prgoramma .... la stessa cosa capita sul mio> gateway che di ram ne ha solo 64 mega...Di ram ne ho sempre avuta abbondante, probabilmente era un altro problema.Se i dischi fossero stati gestiti in DMA non me ne sarei accorto ma in PIO su ChipSet Via, non si riusciva nemmeno a muovere il mouse.AnonimoRe: [OT] Re: Gli hard disk come i floppi
- Scritto da: Anonimo> Probabilmente perché "floppies" è più> pronunciabile di "hard disks", dove il suono> "sks" è decisamente poco comune nella lingua> italiana.> > E a parte questo io sono contrario all'uso> della forma singolare per le parole> straniere, e non mi interessa l'opinione di> chi ha deciso di inventare questa regola,> che induce solo ad errori, quando poi ci si> trova a dover affrontare l'apprendimento> della lingua stessa (ad es. inglese).> > CIAO :8Il fatto che tu sia contrario a una regola non significache non debba essere applicata. ne tantomenodi crearsi le proprie regole, solo per far vedere cheuno sa l'inglese... Se si usa la versione in lingua madre, andrebbe racchiusa tra virgolette, quindi "floppies". La regola e' stata introdotta per una questione semplificativa,poiché permette l'uso delle parole straniere senza dover conoscere le regole per i plurali in quella determinata lingua.Tu sai l'inglese, ma in francese e in tedesco? O insvedese? Sai le regole dei plurali e plurali irregolaridi tutte le lingue?Comunque basta usare le parole in italiano."hard disk" esiste in italiano e si chiama "disco rigido". Se leusassimo più spesso non ci suonerebbero cosi' "strane".E pensare che i francesi hanno bandito l'usodella parola "email"...AnonimoRe: interessante ma esagerato
sei un genio... 8)AnonimoRe: [OT] Re: Gli hard disk come i floppies
Anch i pens ch l regol grammatical sian un cazzat, infatt m son inventat un mi regol pe abbreviar l digitazion tralasciand l'ultim caratter, tant s capisc l stess!AnonimoRe: Memorie solide ?
Cavolo, è mai possibile che nel 2003 debba ancora viaggiare in auto, in treno o in aereo per spostarmi? Perché ci mettono così tanto ad inventare il teletrasporto che sarebbe tanto comodo e piacerebbe a moltissima gente?Uffa!AnonimoRe: Memorie solide ?
- Scritto da: Anonimo> Cavolo, è mai possibile che nel 2003 debba> ancora viaggiare in auto, in treno o in> aereo per spostarmi? Perché ci mettono così> tanto ad inventare il teletrasporto che> sarebbe tanto comodo e piacerebbe a> moltissima gente?> > Uffa!Enterprise, one to beam up ! :)MemoRemigiRe: Memorie solide ?
- Scritto da: Anonimo> Cavolo, è mai possibile che nel 2003 debba> ancora viaggiare in auto, in treno o in> aereo per spostarmi? Perché ci mettono così> tanto ad inventare il teletrasporto che> sarebbe tanto comodo e piacerebbe a> moltissima gente?> > Uffa!Un intervento buttato li' eh?Le memorie solide sono vicine ad essere una realta', almeno nelle dimensioni degli attuali dischi fissi. E' passato qualche settimana fa, qui su P.I. un articolo che parlava di boot da 2 secondi, su macchine che si basano su quella tecnologia, e si diceva che sono prossime a venire.Ha ragione Memo, le memorie solide sono il top della categoria, sia per la robustezza ai guasti, ma sopratutto per il basso consumo.In pratica le RAM statiche rimpiazzeranno i dischi fissi, e questi diventeranno degli enormi contenitori per qualsiasi cosa.AnonimoRe: Memorie solide ?
- Scritto da: MemoRemigi> ma è possibile che nel 2003 siamo ancora> dietro ai dischi magnetici e soprattutto> MECCANICI ???> > Quando arriveranno ste benedette memorie> solide ?Mah in linea di principio non ci sarebbero problemi adesso, pensa alle memorie per macchina fotografiche che stanno scendendo piuttosto velocemente...Il problema e' la velocita' di scrittura secondo me. Sono ancoratroppo lente, e quindi inadatte a sostituire l'HD. > > E' possibile che nel mio portatile l'unica> parte in movimento sia il disco fisso (cdrom> escluso). ?Raffreddato ad acqua e circolazione naturale? :)Comunque anche io spero che entro una decina d'anni l'HD vada in pensione definitivamente...Saluti.SargeRe: interessante ma esagerato
> Peccato inserire frasi di questo tipo che> abbassano un po' il valore di un articolo> altrimenti scritto bene.> Chi parla di misure dovrebbe avere piu senso> della misura.Caro Amico, non so se concordare.Allora, facciamo due conti: una pagina A4 normale diciamo, per comodità, che contenga 50 righe di 100 caratteri, ovvero 5000 caratteri; stampata fronte retro, sono 10'000 caratteri.Una risma di 500 fogli contiene 5'000'000 caratteri.una risma è spessa 5 cm, e in un metro quadro ce ne stanno per definizione 16, quindi in un metro cubo ce ne stanno 16x20=320, ovvero ci stanno 320x5'000'000=1600 milioni di caratteri.Un terabyte è uguale a un milione di milioni di caratteri, e poichè 1000000/1600=625 metri cubi, tanti sono i metri cubi necessari.Se consideriamo però, ad esempio, un pessimo libro come "la memoria del topo" di connelly, possiamo constatare come la densità di caratteri sia di 50 caratteri per 30 righe per 400 pagine, pari a 700'000 caratteri per un volume di 24x16x4= 1536 cm3, pari a una densità volumetrica di 1'000'000/1536=650 volumi che moltiplicati per 700'000 caratteri fanno 455 milioni di caratteri al metro cubo.1600/455x625 portano a circa 2200 il numero di metri cubi necessari a contenere un terabyte.Vediamo ora i coefficienti di spreco di spazio di una biblioteca: un doppio scaffale è largo circa 50 cm, e ci stanno due volumi profondi mediamente 15 cm, quindi abbiamo un primo coefficiente di 50/30; in altezza, diciamo che gli scaffali abbiano spaziature di 40 cm, contro un'altrezza media dei volumi di 20: coefficiente 40/20; ogno scaffale doppio richiede ovviamente un corridoio largo un metro, coefficiente (100+50)/50.Nuovo volume dunque uguale a 2200 x 5/3 x 4/2 x 15/5 = 22'000 metri cubi.L'empire state building ha un volume di circa un milione di metri cubi, quindi potrebbe contenere una cinquantina scarsa di terabyte di libri reali ben disposti su scaffalature.I conti tornerebbero nel caso si fosse invece parlato di un petabyte.NON BISOGNA PERO' DIMENTICARE che si tratta di una informazione proveniente dal CNR, i cui dipendenti, ben noti per l'alacrità e la dedizione al lavoro, hanno sicuramente tenuto conto nei conteggi effettuati del volume degli uffici deserti, delle sale lettura deserte, e SOPRATTUTTO degli AFFOLLATISSIMI punti di ristoro dotati di macchinetta del caffè... anche in questo caso, i conti tornano (e li paghiamo noi :)GiorsAnonimoRe: interessante ma esagerato
> Effettivamente se invece> di 1 Terabyte ci fosse stato un terabit, i> fogli impilati> l'uno sull'altro effettivamente sarebbero> stati> alti quanto 16 volte l'empire state> building...Hai ragione! da questo punto di vista, mi ricorda, andando un po' off-topic, la barzelletta degli ingegneri che cercavano di arrampicarsi su un palo per misurarne l'altezza. arriva un geometra, sfila il palo, lo appoggia per terra, lo misura, e se ne va.... e l'ingegnere capo: "questi geometri! a te serve un'altezza, e lui ti da una lunghezza!"Per inciso, 50 caratteri occupano su un libro standard circa 10 cm... ritagliando a striscioline e incollandole in sequenza, dal nostro terabyte otterremmo un'unica strisciolona di 2'000'000 di kilometri, uguale a 5 volte la distanza tra la terra e la luna!!!!! :)GiorsAnonimoMeglio hard disk ultra_sicuri e super_
robusti!!!!!!!Che si possano cancellare (wipare?) facilmente e totalmente e con bios benfatti: gli hard disk IBM praticamente!!!AnonimoRe: Meglio hard disk ultra_sicuri e super_
- Scritto da: Anonimo> robusti!!!!!!!> Che si possano cancellare (wipare?)> facilmente e totalmente e con bios ben> fatti: gli hard disk IBM praticamente!!!HITACHI Vorrai dire !!!...P.S.Il disco che non si rompe lo devono ancora inventare ...in compenso il mondo brulica di idioti che on fanno backup ..UN VARAnonimoRe: [OT] Re: Gli hard disk come i floppies
Si, pero' sembra un poco puglies!:-)AnonimoRe: [OT] Re: Gli hard disk come i floppi
> E pensare che i francesi hanno bandito l'uso> della parola "email"...Perche' stanno come i pazzi.AnonimoRe: [OT] Re: Gli hard disk come i floppi
Sono d'accordo con te sul fatto che le parole straniere nel contesto di una frase italiana vadano scritte al singolare, ma il fatto che i francesi abbiano bandito la parola "email"...Lo dico sempre che sono una razza di snob !Intendiamoci, noi italiani siamo degli asini, ma loro sono degli snob di cacca :)MemoRemigiRe: [OT] Re: Gli hard disk come i floppies
- Scritto da: Anonimo> Si, pero' sembra un poco puglies!> :-)Grazie, mi hai fatto spiaciare dalle risate, e si sa, si dorme meglio dopo una bella risata ! :)MemoRemigiche asini che siete ! :)
Il tizio del post ha perfettamente ragione !Sicuramente il paragone regge, ma come al solito sono le solite frasi da giornalismo per il popolino che altrimenti non capisce niente di quello che si sta dicendo.Un po' come quando uno vince tot milioni di euro al totocalcio e allora il giornalista idiota di turno fa notare che con tutti quei soldi ci si potrebbero pagare novecentomila caffè o comprare 5 ferrari o andare a fare 600 crocere.Sono le classiche banalità da giornalisti sgangherati, il tipico modello di giornalismo che purtroppo imperversa in questo patetito stivale.Sinceramente da PI mi aspetto un po' di meglio...speriano nella prossima volta !Ciao.MemoRemigiStupido
In informatica si segue la potenza di 2 e non il S.I. per i prefissi.Cio' non toglie che il succo del discorso sia giusto.E lo sono anche i calcoli, sta tranquillo.AnonimoRe: 500gb, 1 tb, 50 tb si certo, ma...
Avete un po' rotto le p@lle con sto linux.Ho capito che è un S.O. valido, lui ha fatto una semplice domanda.Poi se tu sei contento del tuo Linux, che ho provato e che, almeno per me, funziona con il 10% dei programmi/giochi che uso, meglio per te; ma non andare a fargli la MANFRINA xchè lui usa file system cazzuti, invece tu sei "SBOROOONE" e usi linux.Grazie.~YrA*AnonimoRe: 500gb, 1 tb, 50 tb si certo, ma...
> Io con Linux non uso piu' file system> tradizionali da un paio d'anni o piu'.> Tra ext3, ReiserFS, JFX, XFS qualche altro> ho solo l'imbarazzo della scelta e mi uso> quello che voglio a seconda di cosa deve> contenere il disco e che prestazioni o> necessita' di raggiungere o che sicurezze mi> servono (journaling e simili).tutti i fs si frammentano, quando cancelli files lasci dei buchi, nei quali quando il disco è pieno potrà benissimo andare a spezzettare dei file più grandi. in teoria se hai spazio a sufficienza non dovrebbe mai farlo, ma basta cercare sui newsgroup per vedere che in realtà diversi utenti di lin, bsd e macosx hanno verificato che succede anche a valori ben diversi da quelli critici per un buon fs.e poi la performance del disco non dipende solo dalla frammentazione interna dei file, ma anche dalla loro disposizione; facciamo un passo indietro: è solo in fase di scrittura che i fs tipici degli *x si comportano radicalmente in modo diverso da quelli di win, dato che cercano uno spazio sufficiente alla scrittura contigua del file mentre i fs win scrivono dove capita (primo spazio libero che capita sotto le testine)scrivere dove capita è più veloce che dover cercare uno spazio adatto e farlo raggiungere dalle testine, quindi da questo punto di vista i fs win sono più veloci di quelli *x usuali; apparentemente risulta il contrario perche *x gestisce le operazioni sui file in maniera più efficiente e quindi facendo fare le stesse operazioni di scrittura/lettura a *x sul suo fs e a win sul suo *x è più veloce, ma non grazie al fs, allo stesso modo *x è più veloce sul suo fs che su quello win perchè lo usa meglio, anche qui il confronto non è alla pari tra i fs... bisognerebbe vedere *x su un fs suo nativo che gli consenta di scrivere dove capita, logicamente non dovendo aspettare che la testina arrivi al punto prefissato ma accontentandosi del primo libero sarebbe un mostro di velocità.l'approcio win sembrerebbe demenziale perchè fa frammentare molto velocemente i file (almeno, se non c'è parte molto considerevole del fs vuoto), in realtà questo dovrebbe spingere gli utenti a deframmentare spesso, cioè riorganizzare non solo internamente i file, ma anche la loro disposizione su disco; se solitamente carico i file a b c d, se anche i dati che compongono internamente i file a b c d sono contigui (cioè non c'è frammentazione del file), le performance sono ulteriormente molto migliorate se a b c d si trovano in sequenza sul disco piuttosto che a grande distanza; questo non si può ottenere senza riorganizzare il fs.Il limite ovvio (ovvio per win) è che win non può spostare alcuni file, che risulteranno quindi sempre deframmentati a meno di utility a parte che deframmentino prima dell'avvio del sistema vero e proprio.Sinceramente trovo che un fs che non si pone fisime per scrivere e che riorganizzi i dati anche a livello di file e non solo internamente ai file sia molto buono, poi, ognuno usi il fs che gli aggrada, ma non venitemi a raccontare che esistono fs che magicamente non si frammentano mai (che si frammentano molto meno facilmente sarebbe esatto) e che comunque questo tipo di organizzazione preventiva abbia gli stessi benefici della riorganizzazione dei dati dei file e dei file stessi che una valida deframmentazione dà.AnonimoRe: In arrivo i dischi ...
> dimentichi che i files in un disco sono> molto più spesso letti che scritti. Quindi> al limite chi se ne frega se ci impiega un> po' più di tempo per fare la sua scrittura> quando tutte le letture successive> schizzano?be, certo, ma la velocità di scrittura non è certo da buttare.e poi deframmentando i file si ottiene la situazione di file contigui, quindi, come sopra, a file contigui le letture schizzano sui fs *x come su quelli win> E questa dove l'hai sentita? Il defrag> sposta semplicemente i files in modo che> siano contigui, non fa null'altro, al limite> mette qualche file di sistema all'inizio del> disco, ma è tutto.> Infatti se osservi come vengono spostati i> files dal defrag ti rendi conto che è ben> poco efficace.veramente quello che il defrag dice di fare dal win98 in avanti (e quello che fanno i buoni defragger di terze parti) è quello di rendere non solo contigui, internamente, i files, ma anche di avvicinare i files che devono essere caricati contestualmente, se devi caricare a b c mette a b c vicini in modo che la testina si sposti il meno possibile> Perchè non sono dei file systems veloci,> sono dei files systems semplici. La loro> semplicità permette di trattarli in maniera> veloce, ma non sono molto efficaci.ho capito il concetto, ma può essere vero per i fat; ntfs è invece un fs piuttosto raffinato; le minori performance sono dovute a come win usa entrambi questi fs, non al fatto che l'idea del first in e della deframmentazione non siano idee valide per alleggerire il lavoro del disco, a mio avviso sarebbero idee da prendere in considerazione> > si, certo, mio cuggino, quello che gli> > scrive i bug...> > Ah, è tuo cugggino? :-)si, il nostro cuggino, anche cuggino di Elio e Shpalmen! ;)AnonimoRe: Meglio hard disk ultra_sicuri e supe
- Scritto da: Anonimo> robusti!!!!!!!> Che si possano cancellare (wipare?)> facilmente e totalmente e con bios ben> fatti: gli hard disk IBM praticamente!!!hahahahahIBM?Ma a quali dischi ti riferisci?Ho visto piu' HD ibm rotti che sabbia nel deserto.....(vabbe' non cosi' tanti, ma un bel po)AnonimoRe: interessante ma esagerato
hahahahahala robba,la stazioneeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeeAnonimoKe cavolata !
> e di spostare nei settori più veloci i dati più richuiesti.Ti faccio notare che gli harddisk hanno lo stesso numeri di settori traccia per tutte le traccie del disco ... il tempo che impieghi a leggere un' intera traccia alla fine del disco e lo stesso che impieghi a leggere una traccia all' inizio dello stesso, quindi non ci sono zone + veloci del disco ...Te ti confondi con i CDrom che usanso il metodo del Worm .. un' unica spirale in cui i settori sono scritti a "lughezza" sulla spirale stessa e quindi piu' vai all' esterno del CD piu' il bit rate/giro aumenta...AnonimoRe: Byte o bit?
però i bit si misurano in potenze di 10 e i byte in potenze di 2lupzKazzata, forse il modellino dell'Empire.
Con una comune stampante laser su della comune carta formato A4 utilizzando un font 4 è possibile stampare 1 TeraByte di dati occupando un volume di 60 M3 (una stanza di 3x7M)AnonimoRe: Kazzata, forse il modellino dell'Empire.
- Scritto da: Anonimo> Con una comune stampante laser su della> comune carta formato A4 utilizzando un font> 4 è possibile stampare 1 TeraByte di dati> occupando un volume di 60 M3 (una stanza di> 3x7M)quante staze del genere ci sono in un empire state building?più, meno di, o circa 100.000?fatti i conti meglio... (non conosco e non mi interessano i dati tecnici dell'empire state building;-)e poi..... quando si fanno dei paragoni del genere (per quanto banali) si intendono implicitamente (forse sbagliando) paramentri comuni..... ovvero: tu stampi con font 4?cordialemtecerchioCERCHIORe: Byte o bit?
- Scritto da: lupz> però i bit si misurano in potenze di 10 e i> byte in potenze di 2Io di solito faccio 1byte=8bit e il conto torna. :-)AnonimoRe: 500gb, 1 tb, 50 tb si certo, ma...
Da non dimenticare inoltre che anche lo scrivere a casaccio non è per forza più rapido. Ogni scrittura rischia di obbligare il movimento della testina per raggiungere il prossimo settore libero, e si sa che rallenta parecchio. Trovare lo spazio contiguo non richiede questo continuo movimento della testina (nella lettura ma anche nella scrittura) e in conseguenza può risultare anche più rapido in scrittura.- Scritto da: Anonimo> > Io con Linux non uso piu' file system> > tradizionali da un paio d'anni o piu'.> > Tra ext3, ReiserFS, JFX, XFS qualche altro> > ho solo l'imbarazzo della scelta e mi uso> > quello che voglio a seconda di cosa deve> > contenere il disco e che prestazioni o> > necessita' di raggiungere o che sicurezze> mi> > servono (journaling e simili).> > tutti i fs si frammentano, quando cancelli> files lasci dei buchi, nei quali quando il> disco è pieno potrà benissimo andare a> spezzettare dei file più grandi. in teoria> se hai spazio a sufficienza non dovrebbe mai> farlo, ma basta cercare sui newsgroup per> vedere che in realtà diversi utenti di lin,> bsd e macosx hanno verificato che succede> anche a valori ben diversi da quelli critici> per un buon fs.> e poi la performance del disco non dipende> solo dalla frammentazione interna dei file,> ma anche dalla loro disposizione; facciamo> un passo indietro: > è solo in fase di scrittura che i fs tipici> degli *x si comportano radicalmente in modo> diverso da quelli di win, dato che cercano> uno spazio sufficiente alla scrittura> contigua del file mentre i fs win scrivono> dove capita (primo spazio libero che capita> sotto le testine)> scrivere dove capita è più veloce che dover> cercare uno spazio adatto e farlo> raggiungere dalle testine, quindi da questo> punto di vista i fs win sono più veloci di> quelli *x usuali; apparentemente risulta il> contrario perche *x gestisce le operazioni> sui file in maniera più efficiente e quindi> facendo fare le stesse operazioni di> scrittura/lettura a *x sul suo fs e a win> sul suo *x è più veloce, ma non grazie al> fs, allo stesso modo *x è più veloce sul suo> fs che su quello win perchè lo usa meglio,> anche qui il confronto non è alla pari tra i> fs... bisognerebbe vedere *x su un fs suo> nativo che gli consenta di scrivere dove> capita, logicamente non dovendo aspettare> che la testina arrivi al punto prefissato ma> accontentandosi del primo libero sarebbe un> mostro di velocità.> l'approcio win sembrerebbe demenziale perchè> fa frammentare molto velocemente i file> (almeno, se non c'è parte molto> considerevole del fs vuoto), in realtà> questo dovrebbe spingere gli utenti a> deframmentare spesso, cioè riorganizzare non> solo internamente i file, ma anche la loro> disposizione su disco; se solitamente carico> i file a b c d, se anche i dati che> compongono internamente i file a b c d sono> contigui (cioè non c'è frammentazione del> file), le performance sono ulteriormente> molto migliorate se a b c d si trovano in> sequenza sul disco piuttosto che a grande> distanza; questo non si può ottenere senza> riorganizzare il fs.> Il limite ovvio (ovvio per win) è che win> non può spostare alcuni file, che> risulteranno quindi sempre deframmentati a> meno di utility a parte che deframmentino> prima dell'avvio del sistema vero e proprio.> Sinceramente trovo che un fs che non si pone> fisime per scrivere e che riorganizzi i dati> anche a livello di file e non solo> internamente ai file sia molto buono, poi,> ognuno usi il fs che gli aggrada, ma non> venitemi a raccontare che esistono fs che> magicamente non si frammentano mai (che si> frammentano molto meno facilmente sarebbe> esatto) e che comunque questo tipo di> organizzazione preventiva abbia gli stessi> benefici della riorganizzazione dei dati dei> file e dei file stessi che una valida> deframmentazione dà.AnonimoRe: In arrivo i dischi ...
- Scritto da: Anonimo> > dimentichi che i files in un disco sono> > molto più spesso letti che scritti. Quindi> > al limite chi se ne frega se ci impiega un> > po' più di tempo per fare la sua scrittura> > quando tutte le letture successive> > schizzano?> be, certo, ma la velocità di scrittura non è> certo da buttare.> e poi deframmentando i file si ottiene la> situazione di file contigui, quindi, come> sopra, a file contigui le letture schizzano> sui fs *x come su quelli winSono d'accordo.> > E questa dove l'hai sentita? Il defrag> > sposta semplicemente i files in modo che> > siano contigui, non fa null'altro, al> limite> > mette qualche file di sistema all'inizio> del> > disco, ma è tutto.> > Infatti se osservi come vengono spostati i> > files dal defrag ti rendi conto che è ben> > poco efficace.> veramente quello che il defrag dice di fare> dal win98 in avanti (e quello che fanno i> buoni defragger di terze parti) è quello di> rendere non solo contigui, internamente, i> files, ma anche di avvicinare i files che> devono essere caricati contestualmente, se> devi caricare a b c mette a b c vicini in> modo che la testina si sposti il meno> possibilePossibile. Con questo tu mi dici che Windows tiene traccia di quali files sono stati aperti e in quale sequenza? In pratica dal Windows 98 in su il Windows giornalizzerebbe gli accessi ai files per poter ben deframmentare il disco?Non facevano prima a fare una giornalizzazione completa?O a utilizzare un filesystem che non frammenta (o quasi)?> > Perchè non sono dei file systems veloci,> > sono dei files systems semplici. La loro> > semplicità permette di trattarli in> maniera> > veloce, ma non sono molto efficaci.> ho capito il concetto, ma può essere vero> per i fat; ntfs è invece un fs piuttosto> raffinato; le minori performance sono dovute> a come win usa entrambi questi fs, non al> fatto che l'idea del first in e della> deframmentazione non siano idee valide per> alleggerire il lavoro del disco, a mio> avviso sarebbero idee da prendere in> considerazioneL'NTFS effettivamente è un fs migliore del FAT, ma "purtroppo" è implementato solo da NT+. E molte installazioni di NT+ sono fatte in FAT ancora oggi (per la disperazione dei dischi).Il deframmentatore inoltre è una buonissima idea, non è solo da prendere in considerazione, è da implementare. Infatti esistono delle versioni per FAT e per NTFS, e Linux ha pure il suo. Solo che su FAT devi lanciarlo almeno una volta al mese per essere tranquillo (io lo faccevo una volta a settimana quando usavo Win98), su NTFS e sui FS *x non è necessario farlo così spesso. Su Linux io non lo faccio mai e la frammentazione del mio disco non supera l'1%, su NTFS non lo faccio mai neppure li perchè i files li metto sul server e quindi il rallentamento è a livello del server e della rete.> > > si, certo, mio cuggino, quello che gli> > > scrive i bug...> > > > Ah, è tuo cugggino? :-)> si, il nostro cuggino, anche cuggino di Elio> e Shpalmen! ;)Miiiiiiiii, che famiiiiiglia. :-)AnonimoAvaete mai provato...
...un RAID con i floppy? ;) O con le memory stick Sony?Su un vecchio iMac da sbarco....Et voila:http://ohlssonvox.8k.com/fdd_raid.htmAltro che dischi "densi e ultraveloci".....Lo so lo so, è la cosa più inutile del mondo ma è divertente e........provate a farlo con Windoze....AnonimoRe: Ke cavolata !
> il mio 160GB è un 19459/255/63 circa). Dove pensi che le> mettano le 255 teste in un 3"5?Quella e' la modalita' LBA che divide il numero di traccie e moltiplica il numero di testine comunicate dal bios al SO, modalita' inizialmente nata per fregare il DOS e i primi windows visto che tanto tempo fa bill gates disse che la densita' di un disco non poteva andare oltre un certo limite e per aver dischi di grandi dimensioni si poteva solo mettere tanti piattelli, limito' DOS a 1024 cilindri ma con 255 testine .. infatti se provi a calcolare l' LBA di un disco digido a mano, partendo dai parametri CHS reali e inserisci questi parametri calcolati a mano in un vecchio BIOS non so di un 386 con ms dos 6 ti accorgerai che esso funziona anche se e' di alcuni giga quado quel bios e quel so in teoria potevano supportare al massimo 512 mega, questo e' un trucco e la traslazione delle chiamate LBA a CHS viene fatta dall' elettronica del disco... Windows, anche le ultime versioni sono ancora legate a questo fatto dell' LBA ... ora i limiti del SO sono stati aumentati, almeno per quel che riguarda il numero di cilindri ma il SO stesso rimane con limiti che devono essere raggirati in questo modo ... sotto Linux invece e' fattibilissimo usare un disco fisso in modalita' CHS nativamente e questo tra le altre cose velocizza le operazioni visto che non devi fare conversioni dalle chiamate al disco ma ci accedi direttamente ...AnonimoRe: Ottimo...!
transfer rate che aumenta all'aumentare della densità!!!CERCHIObello ma sbagliato
1 TB = 1024 GBle dimensioni vanno esperesse in base 2 e non in base 10un hdd da 60 GB viene considerato 1000 mb ma quando si provvede a formattazione (base 2)se ne perdono circa 2 GBincominciamo ad usare corretamente le misurespecialmente se si tratta di spazio(che e' sempre poco)CMQ meglio un paio di GB in meno e un po piu affidabili(cosa possibile) senza incidere sul costo finalead esempio come mai gli HDD ultimi sembrano delle CPUe vogliono rafferddamento attivo per stare un po freschia me pare troppo !! e non solo il problema dei BAD sector1 settore danneggiato e winmerda non e' in grado di scartarloe neanche l'HDD di usare dello spazio per risilvere il problema (riallocazione dinamica)AnonimoGrazie, il tuo commento è in fase di approvazioneGrazie, il tuo commento è stato pubblicatoCommento non inviatoGrazie per esserti iscritto alla nostra newsletterOops, la registrazione alla newsletter non è andata a buon fine. Riprova.Leggi gli altri commentiRedazione 29 07 2003
Ti potrebbe interessare