Gandalf.it/ La leggenda di Moore

di Giancarlo Livraghi. Alle parole di Moore si sono attribuiti significati e conseguenze che non hanno mai avuto. Insomma più che di una legge si tratta di una leggenda


Gandalf.it – di Giancarlo Livraghi – La cosiddetta “legge di Moore” non è una legge. Cioè non è un principio scientifico che sia stato enunciato come tale – o che abbia conferma nell’osservazione dei fenomeni.

È una delle tante affermazioni che circolano (sull’informatica come in altre materie) trattate universalmente come “verità rivelata” e continuamente ripetute senza verificarne l’attendibilità. E, per di più, interpretate in vari modi che nulla hanno a che fare con il loro reale significato.

Ci sono state, e ancora ci sono, parecchie distorsioni di questo genere anche per quanto riguarda l’internet. Come, per esempio, la leggenda della “crescita esponenziale” e la diffusione di un’infinità di dati immaginari, poco attendibili o male interpretati (vedi Verifica su alcune “proiezioni” a proposito dell’internet ).

L’affermazione di Gordon Moore (che risale al 1964) era intelligente e ragionevole; ma non era quella di cui oggi si parla (“la velocità dei processori raddoppia ogni 18 mesi”). L’analisi dei fatti non dimostra che ciò che accadeva nel 1964 sia continuato negli anni seguenti. Inoltre, alle parole di Moore si sono attribuiti significati e conseguenze che non hanno mai avuto. Insomma più che di una legge, si tratta di una leggenda.

Il concetto di quell’affermazione, nel modo “semplificato” in cui si è diffuso e continuamente ripetuto, è tutt’altro che chiaro. Come vedremo poco più avanti, non è semplice definire che cosa si intende per “velocità” o “potenza” – quindi quale sia l’unità di misura con cui definire il presunto “raddoppio”. Inoltre l’immaginaria “legge” (che è diversa dall’osservazione di Moore) si è rivelata falsa. Se nel 1964 si poteva parlare di “raddoppio” ogni 12 mesi, che poi sono diventati 18… ora siamo a 24 o forse 30.

Ma anche così l’aumento “possibile” di “velocità” dei processori non corrisponde a reali esigenze della stragrande maggioranza degli utenti. In un mercato “ragionevole” avere prezzi più bassi a parità di prestazioni (anziché macchine più “potenti” allo stesso prezzo) potrebbe favorire la diffusione dei computer in quelle categorie che oggi non se li possono permettere (miliardi di persone nel mondo – milioni in Italia). E anche di evitare spese inutili a chi “se lo può permettere” ma non per questo deve spendere male i suoi soldi.

Inoltre… un computer – con capacità comunque molto superiori a ciò di cui abbiamo realmente bisogno – dovrebbe poter durare dieci o vent’anni o forse più (sempre che sia sufficientemente “robusto” e affidabile in tutte le sue componenti). Invece si continuano a sovraccaricare funzioni, spesso inutili, per creare un’altrettanto inutile esigenza di maggiore velocità di calcolo (reale o presunta) e così “forzare” continui quanto insensati “aggiornamenti” di software e hardware.

Ovviamente non si tratta solo di processori. Se vent’anni fa con 64 kilobyte di memoria (Ram) avevamo macchine efficienti – e dieci anni fa 640 k sembravano fin troppi – oggi ci sono software paurosamente inefficienti (o intenzionalmente e perversamente concepiti per “consumare troppo”) che rendono “lento” un personal computer con 64 megabyte di memoria. E considerazioni analoghe si potrebbero fare su altre componenti e funzioni.

In sostanza, è vero che la tecnologia può produrre sistemi di elaborazione sempre più veloci. Ma è falso che da ciò derivi “necessariamente” l’obbligo di mettere fuori uso macchine ancora efficienti solo perché esistono sul mercato nuovi prodotti con una “potenza” superiore.

Oltre alla falsificazione di mercato (“obsolescenza forzata”) ci sono anche falsificazioni culturali; perché dall’inesistente o male interpretata “legge di Moore” si traggono conseguenze che nulla hanno a che fare con quel concetto – come ipotetiche (e irreali) “velocità” di evoluzione di comportamenti umani e fenomeni sociali, culturali ed economici (vedi anche Elogio della lentezza).

A questo proposito mi sembra interessante citare un articolo di Lucio Bragagnolo pubblicato nell’aprile 2001. Eccolo di seguito.


di Lucio Bragagnolo

Ogni diciotto mesi, si dice, la velocità dei processori raddoppia. Concepita nel 1964, questa affermazione accompagna l’informatica da più di trentacinque anni e continuerà a farlo, secondo il suo autore, fino al 2017. Ma il concetto è molto cambiato lungo il percorso. Era nato come un’intuizione lungimirante – oggi è più che altro una speculazione commerciale.

Tutti conosciamo lo stereotipo della signora piacente ma non più giovanissima che per civetteria toglie qualche anno alla propria età. Nell’informatica esiste invece un principio che, sempre per civetteria, si aggiunge mesi. È la cosiddetta “legge di Moore”, spesso citata per ricordare che “la potenza dei microprocessori raddoppia ogni diciotto mesi” . Non è così. Di fatto la “legge di Moore”, intuizione straordinaria per longevità, è diversa da come la si racconta oggi e ha beneficiato durante la sua vita, come altre signore, di diversi lifting .

Fu Gordon Moore, ingegnere elettronico cofondatore di Intel, a osservare nel 1964 che la tecnologia permetteva di raddoppiare ogni dodici mesi il numero di transistor per pollice quadrato presenti su un chip.

L’osservazione era puramente empirica e, racconta Moore stesso, non pretendeva di diventare una vera e propria regola; non pareva possibile che la corsa al raddoppio potesse continuare indefinitamente. Invece, con sorpresa di molti scettici, continuò, e la neonata “legge di Moore” diventò uno dei cavalli di battaglia della penetrazione dell’informatica nelle aziende e poi nelle case.

La “velocità”, strumento commerciale

La “legge” rappresentava un eccellente strumento di propaganda e di vendita. Così, quando la crescita delle densità cominciò a rallentare, gli addetti alla comunicazione pubblicitaria e commerciale iniziarono ad addomesticare la”legge”, stiracchiando il numero di mesi necessario al raddoppio. E iniziò il mito della velocità come fatto dipendente dai megahertz del processore: era più facile vendere megahertz che densità dei transistor per pollice quadrato.

Alla fine, e ai giorni nostri, questa vulgata ha sostituito il concetto originale, empirico ma certamente più scientifico e serio di quello attuale. L’intuizione di Gordon Moore è stata stravolta ed è diventata il condimento di articoli e campagne pubblicitarie.

Una delle campagne menzognere fu quella dell’Intel che spese parecchi miliardi in pubblicità nel tentativo di far credere che occorresse un Pentium 3 per collegarsi all’internet – così fra l’altro scoraggiando molti che avrebbero potuto tranquillamente collegarsi con le macchine che avevano, ma erano confusi da panzane come queste (diffuse anche da altri che avevano interesse a vendere nuovi computer). Affermazioni analoghe, e non meno sbagliate, sono state (e ancora sono) ripetute largamente sulla stampa – di categoria e “generale” – come dalla televisione e da altri mass media (n.d.r.).

Cpu da trentacinque terahertz

La velocità non è uguale ai megahertz e questi ultimi non sono mai raddoppiati ogni diciotto mesi. Una calcolatrice scientifica o un buon foglio di calcolo mostrano che dal 1962 (anno da cui partono le statistiche di Moore) a fine 2000 sono passati venticinque (virgola tre) periodi di diciotto mesi. Raddoppiando un megahertz per venticinque volte si arriva a 35.184.372.088.832 hertz: sono trentacinque terahertz, ossia un valore trentacinquemila volte superiore ai clock delle Cpu di oggi. Un processore capace di calcolare con questa frequenza mostruosa porrebbe, in piccolo, gli stessi problemi di dispersione di calore di una centrale nucleare.

La spiegazione di questo divario tra aspettative e risultati è semplice: l’aumentare della densità dei transistor sulla superficie del chip non incide sempre e solo sui megahertz. Qualche volta incide sui costi di produzione, perché un chip più affollato è più piccolo e quindi richiede meno silicio. A volte incide sul consumo energetico, perché permette di realizzare processori meno affamati di energia. Certi raddoppi della “legge di Moore” sono andati in riduzioni di costo e di consumi, più che aumenti di velocità.

Un interessante dettaglio tecnico è che non sempre la “miniaturizzazione” (concetto alla base dell’affermazione originaria di Moore) rappresenta un progresso. Alcune evoluzioni recenti portano alla progettazione e alla produzione di processori “un po’ meno piccoli” a parità di potenza – quindi di fabbricazione meno “delicata” e perciò più affidabili e meno costosi (n.d.r.).

La velocità che sfugge

Che cos’è allora la velocità pura di un processore? Difficile dirlo con semplicità. C’è chi la esprime in Mips (milioni di istruzioni per secondo), senza considerare che le istruzioni eseguite possono essere più o meno complesse: il vantaggio dei processori Motorola PowerPC sui processori Intel Pentium dipende esattamente dal confronto tra istruzioni molto potenti, ma eseguite lentamente, contro istruzioni elementari elaborate con estrema rapidità. Oppure si possono prendere in esame le velocità di calcolo di numeri interi oppure di numeri in virgola mobile, cioè con decimali (gigaflop). Di fatto, però, se intorno a un processore potente c’è un’architettura di bassa qualità o un disco rigido poco efficiente, il risultato finale non rispecchierà le potenzialità del processore.

Tornando alla “legge di Moore”, secondo il suo stesso scopritore potrebbe rimanere valida per un’altra ventina di anni. Nel 2017 circa verranno raggiunti i limiti fisici delle attuali tecnologie. Per proseguire ulteriormente nei raddoppi bisognerà inventare qualcos’altro, come i chip biologici, o quelli a effetto quantico, oggi poco più che esperimenti promettenti.

O forse qualcuno inventerà qualche altro trucco per “forzare” continui cambiamenti di cui non c’è alcun reale bisogno.

Per approfondire:

Indirizzi per approfondire

http://webopedia.internet.com/TERM/M/Moores_Law.html
La prima enunciazione della “legge di Moore” parlava di un raddoppio della densità dei transistor sui chip ogni dodici mesi.

http://info.astrian.net/jargon/terms/m/Moore_s_Law.html
Poi si iniziò a parlare di diciotto mesi per raddoppio.

http://www.intel.com/intel/museum/25anniv/hof/moore.htm
Le pagine del sito Intel dedicate a Gordon Moore si assestano su un raddoppio ogni diciotto-ventiquattro mesi.

http://www.physics.udel.edu/wwwusers/watson/scen103/intel.html
Qualcuno sostiene che ormai la “legge” viaggi verso i trenta mesi per raddoppio: un peggioramento del 150% sulla prima osservazione di Moore.

http://developer.intel.com/update/archive/issue2/feature.htm
Secondo il suo stesso autore, la “legge di Moore” potrebbe cessare di funzionare entro una ventina d’anni.

La tua email sarà utilizzata per comunicarti se qualcuno risponde al tuo commento e non sarà pubblicato. Dichiari di avere preso visione e di accettare quanto previsto dalla informativa privacy

  • Anonimo scrive:
    Mafia russa ?
    Sono stato a Cipro da pochi mesi. La speculazione edilizia legata molto probabilmente al riciclo di denaro sporco ad opera della mafia russa sta cementificando con hotel lussuosi e pacchiani buona parte delle spiagge dell'isola. Questo turismo non manca di denaro, ma forse manca di personale specializzato. Quale veicolo migliore di Internet e dei PC per favorire la formazione di studenti in grado di essere poi impiegati in queste attività ? La mia ipotesi è: i PC arrivano, per vie ovviamente occultate, dalla mafia russa, che non ha certo problemi di denaro, anzi, lo investe per potere continuare un certo tipo di sviluppo speculativo in cui lo ricicla dandosi al turismo internazionale.
  • Anonimo scrive:
    Non ci vuole molto a capire chi sia...
    Nell'articolo non e` scritto, ma se le macchinedonate hanno preinstallato il Microsoft Windows(magari Windows ME) accade che in un territorio (=mercato) vergine per l'informatica quale Ciprosi avviano le giovani menti cipriote ad abituarsi all'impero Micro$oft e programmare in ASP, VBe perche` no, in C#.Tra qualche anno ci saranno un sacco di sviluppatori Micro$oft a basso costo da quelle parti, ragazzi che non sapranno cosasia il Linux e l'opensource.Chi potra`mai avere un vantaggio da questo?Chi sara`mai questo "benefattore"?Pino Silvestre
    • Anonimo scrive:
      Re: Non ci vuole molto a capire chi sia...
      Io lo so, è Marisa Laurito.
    • Anonimo scrive:
      Re: Non sono mica scemi...
      Guardate che Cipro non e' terzo mondo.Molti di loro fanno l'universita' in Inghilterrama hanno un indole "mediterranea" (all'Italiana).Secondo me si fanno dare le macchine poi alprimo crash (e non ci sara' da aspettare molto)ci installano Linux!
      • Anonimo scrive:
        Re: Non sono mica scemi...
        - Scritto da: Nilus
        Guardate che Cipro non e' terzo mondo.
        Molti di loro fanno l'universita' in
        Inghilterra
        ma hanno un indole "mediterranea"
        (all'Italiana).
        Secondo me si fanno dare le macchine poi al
        primo crash (e non ci sara' da aspettare
        molto)
        ci installano Linux!E dopo l'instantaneo crash di linux, vanno tutti con le bilance al mare in cerca di cefali...
        • Anonimo scrive:
          Re: Non sono mica scemi...
          ehehehehben detto!!!ma che gli frega a quelli del computer col bel mare che hanno... i malati siamo noi!!!
      • Anonimo scrive:
        Re: Non sono mica scemi...
        - Scritto da: Nilus
        Guardate che Cipro non e' terzo mondo.
        Molti di loro fanno l'universita' in
        Inghilterra
        ma hanno un indole "mediterranea"
        (all'Italiana).
        Secondo me si fanno dare le macchine poi al
        primo crash (e non ci sara' da aspettare
        molto)
        ci installano Linux!E poi si dedicano alla pesca.
Chiudi i commenti