Kurzweil: il corpo umano è un software

Come un qualsiasi programma per computer può essere aggiornato. Ma non bisogna avere paura della tecnologia. Semmai bisogna montare sulle spalle del progresso per guardare più in là di quanto si faccia oggi

Roma – Non ci sarà nessuna differenza tra uomini e macchine nel 2029 : “Non sarà possibile entrare in una stanza e dire: Ok, umani a sinistra e macchine a destra . Sarà tutto mescolato: ci saranno esseri biologici con macchine elaboratrici nel cervello, e la parte sintetica potrebbe essere molto più complessa della porzione organica. Non ci sarà una distinzione chiara tra dove finiscono gli esseri umani o le intelligenze biologiche e dove iniziano quelle artificiali”.

Ray Kurzweil Ray Kurzweil , futurologo che da tempo teorizza la nascita di una nuova specie con il contributo di umani e macchine, torna a parlare della sua visione del futuro della tecnologia: in una lunga intervista ribadisce la sua teoria della legge del ritorno accelerato , e la pone alla base del progresso e del miglioramento delle condizioni di vita dell’umanità nei prossimi vent’anni. È grazie alla tecnologia, all’avanzare degli studi in tutte le discipline a un ritmo sempre crescente, che entro pochi lustri la promessa di una vita allungata e di macchine coscienti diventerà realtà.

Basti pensare a quanto sta accadendo nel campo della genetica , e di come la conoscenza che gli scienziati stanno acquisendo del corpo umano, del suo metabolismo e della sua evoluzione stia cambiando grazie alle recenti scoperte. Se mille anni fa l’idea di trattenere nel corpo ogni singola caloria ingerita era appropriata per il regime di vita che conducevano i nostri antenati, oggi quella stessa scelta evoluzionistica causa un’epidemia di obesità: ma grazie al progresso siamo oggi in grado di modificare alcuni tratti genetici, di riprogrammare in un certo senso il metabolismo, e forse potremmo persino decidere di debellare per sempre questi e altri difetti dal patrimonio genetico dell’intera umanità.

Ma il progresso non si limita a far aumentare le potenzialità degli esseri viventi. Anche le macchine sono sempre più veloci, complesse, potenti: sempre nel 2029 – questa la stima di Kurzweil – potrebbe scattare l’ora X dell’autocoscienza dell’intelligenza artificiale . Non si tratterà di stabilire se il computer possederà uno spirito (“Abbiamo guardato nel cervello, l’abbiamo osservato in ogni singolo dettaglio: non abbiamo trovato niente che assomigliasse a un’anima”), quanto piuttosto di comprendere se all’aumento di complessità corrisponderà anche la presa di coscienza delle macchine.

All’inizio sarà difficile accettare che una nuova forma di vita nasca da una costola del genere umano: “Io stesso probabilmente non ci crederò” ammette Kurzweil. Ma la macchina, e le macchine che seguiranno la prima, affronteranno lo stesso percorso degli altri esseri senzienti sul Pianeta Terra, impareranno cosa sono le emozioni, riusciranno a padroneggiarle e alla fine si evolveranno anche oltre il limite raggiunto dai loro creatori . Oppure si fonderanno con loro, per dare vita a qualcosa di diverso e ancora superiore.

Certo la tecnologia, lo ammette anche Kurzweil, porta in dote dei rischi : “È un’arma a doppio taglio, Internet verrà usata per diffondere odio e consentire a gruppi distruttivi di organizzarsi. Ma credo si tratti di un aspetto minore, mi preoccuperebbe di più l’abuso della biotecnologia”. Proprio per questo, prosegue, occorre aprirsi alle novità: il rischio altrimenti è che queste tecniche di manipolazione si evolvano al di fuori di ogni controllo, che vengano impugnate unicamente da individui senza scrupoli pronti ad abusarne. Basterà creare appositi standard etici , e implementare le leggi giuste per farli rispettare, per far sì che tutto questo si trasformi in un vantaggio per l’umanità.

Solo così il futuro sarà davvero fatto di vite più lunghe, senza malattie, qualitativamente migliori: alla fine l’intelligenza artificiale sarà in grado di fare tutto quello che fanno oggi gli esseri biologici, e di farlo anche meglio e senza stancarsi. Ci sarà ancora spazio, allora, per il genere umano? “Molti dei lavori più retribuiti di oggi non esistevano 100 anni fa, oppure vengono pagati molto di più o sono più soddisfacenti. È un trend destinato a continuare, il lavoro si farà sempre più intellettuale. Già oggi circa la metà della popolazione contribuisce alla creazione e alla gestione delle informazioni – conclude Kurzweil – e nessuno di questi lavori esisteva 50 anni fa”.

fonte immagine

La tua email sarà utilizzata per comunicarti se qualcuno risponde al tuo commento e non sarà pubblicato. Dichiari di avere preso visione e di accettare quanto previsto dalla informativa privacy

  • -ToM- scrive:
    Mi gira la Tesla...
    dall'articolo:[...]Il supercomputer, chiamato Tsubame, è formato da 170 sistemi TeslaS1070 1U e, secondo Nvidia, è in grado di consumare una frazione dell'energia richiesta da un classico cluster di server x86.[...]poi a NOI ci vendono schede video che consumano come stufe elettriche.Grazie.
    • pabloski scrive:
      Re: Mi gira la Tesla...
      [sarcastic mode]da uno scambio di e-mail private si è scoperto che è ENEL a chiedere a NVidia di vendere schede che consumano un botto :D[/sarcastic mode]
  • Antonio Macchi scrive:
    ma finiamola con questa stronzata!
    continuano a venderci processori multicore anche per uso desktopSTRONZATA GALATTICA!!!!i software sono la cosa meno perfetta tra tutte le cose costruite dall'uomol'assenza di bug in un software non esiste, e gli stessi programmatori lo ammettonole liste di bug conosciuti e ancora da risolvere sono sempre lunghissime, per ogni software in circolazioneusando due o piu' processori I BUG NON POSSONO CHE AUMMENTARE!con la ulteriore complicazione che diventa quasi impossibile scovarliquindi rassegnamocisoftware che sfrutti multicore e' UTOPIAvi fanno credere che il vostro browser si carichera' prima se avete due corema son tutte fesserie... l'unica cosa che potete ottenere, al massimo, e' poter masterizzare e navigare contemporaneamente...i multicore di oggi sono lo stesso dei processori a TRE-GIGAHERTZ che faceva intel tempo indietroUNA PRESA PER IL CULO, E UN SISTEMA PER FAR CASSA SULL'INGENUITA' DEL POPOLAME IDIOTA!
    • Antonio Macchi scrive:
      Re: ma finiamola con questa stronzata!
      non solo... ma il 99% per cento del tempo, i processori di un sistema desktop, sono FERMI!!!il processore entra in funzione mentre caricate una pagina web...poi, mentre la leggete, il processore non FA NIENTE!!quindi, don due core, si avrebbero DUE PROCESSORI FERMI invece di uno soloche mondo da manicomio... e pensare che oggi e' praticamente impossibile comperare un pc normale, con un core solo, da 1.7GHz e con i normali 512MB di ram...quando entreremo nella fase discendente di questa pazzia consumistica?
      • -ToM- scrive:
        Re: ma finiamola con questa stronzata!
        - Scritto da: Antonio Macchi
        non solo... ma il 99% per cento del tempo, i
        processori di un sistema desktop, sono
        FERMI!!!

        il processore entra in funzione mentre caricate
        una pagina
        web...
        poi, mentre la leggete, il processore non FA
        NIENTE!!

        quindi, don due core, si avrebbero DUE PROCESSORI
        FERMI invece di uno
        solo


        che mondo da manicomio... e pensare che oggi e'
        praticamente impossibile comperare un pc normale,
        con un core solo, da 1.7GHz e con i normali 512MB
        di
        ram...

        quando entreremo nella fase discendente di questa
        pazzia
        consumistica?Anche tu laureato in informatica eh?PS.: Devo ammetterlo, questo forum è uno spasso...
      • UCCI scrive:
        Re: ma finiamola con questa stronzata!
        mai sentito parlare di progetti di calcolo distribuito???NAaaaaaaaaaaaaaaaaaaaaaaaaaa
        • -ToM- scrive:
          Re: ma finiamola con questa stronzata!
          - Scritto da: UCCI
          mai sentito parlare di progetti di calcolo
          distribuito???
          NAaaaaaaaaaaaaaaaaaaaaaaaaaama dai, lui fa lat-tab fra punto-informatico e messenger.
    • pabloski scrive:
      Re: ma finiamola con questa stronzata!
      - Scritto da: Antonio Macchiposso essere d'accordo sul fatto che i software attuali non sono progettati per fare uso massiccio di multitasking e multithreadingma tutto questo non c'entra un tubo con i bugè semplicemente che i programmatori sono pigri e non amano svolgere quel lavoro extra necessario a creare software multithreadsenza contare che moltissimi software vecchi andrebbero completamente rivistidetto ciò, però, i sistemi operativi sono multiprocesso e usano i core multipli....windows li usa male e ne supporta pochissimi, ma linux ha un sottosistema smp avanzato e supporta migliaia di processori/corequesto vuol dire che già i singoli processi vengono accelerati e questo oggi senza fare ulteriori modifiche al software
    • Sween scrive:
      Re: ma finiamola con questa stronzata!
      "i multicore di oggi sono lo stesso dei processori a TRE-GIGAHERTZ che faceva intel tempo indietro"Come? Cosa? Quali processori? Specifica il modello e la famiglia! Sai, Intel non ne ha fatti due o tre modelli...
    • -ToM- scrive:
      Re: ma finiamola con questa stronzata!
      - Scritto da: Antonio Macchi
      continuano a venderci processori multicore anche
      per uso
      desktop

      STRONZATA GALATTICA!!!!Hai perfettamente ragione!Devono fare UN CORE SOLO e puntare a frequenze di clock sui 100GHZ !!!!Così spenderai 300 euro al bimestre di bolletta e avrai una macchina che va come un quad2.6.Prima studiati i benefici che porta il multithreading, poi decidi se sparare queste ca...te
      • sathia scrive:
        Re: ma finiamola con questa stronzata!
        meno male va,che non c'è niente di peggio della propaganda di un ignorante.a che pro poi?bah.
    • Paolino scrive:
      Re: ma finiamola con questa stronzata!
      - Scritto da: Antonio Macchi[cut]
      UNA PRESA PER IL CULO, E UN SISTEMA PER FAR CASSA
      SULL'INGENUITA' DEL POPOLAME
      IDIOTA!Sulla tua sicuramente, sparati trollaccio... :D
    • asd scrive:
      Re: ma finiamola con questa stronzata!
      quoto....ma il bello che ram e hardisk riamngono alla preistoria....
      • -ToM- scrive:
        Re: ma finiamola con questa stronzata!
        - Scritto da: asd
        ma il bello che ram e hardisk riamngono alla
        preistoria....DDR3 e SDD non mi sembrano preistoria.
    • Myrddin non loggato scrive:
      Re: ma finiamola con questa stronzata!
      Uhm forse non sai dell'esistenza dei thread che sollevano da molti degli annosi meccanismi di comunicazione dei software multi processo legati alla comunicazione tra i vari processi..Ad ogni modo.. threads o processi apparte...Lo sai che per avere vantaggi con i multi core basta anche avviare due programmi assieme? statisticamente ognuno girerà su una cpu (o meglio su un core)Vediamo un po...Sicuramente hai l'user space dell'os, poi usi windows? allora c'è un'antivirus, un antispyware, un antiqualcosa. Magari hai anche qualche programma che usi aperto...O semplicemente apriti il taskmanager (sempre nell'ipotesi che usi windows o esegui un top su unix)... di cose che girano contemporaneamente ne hai diverse..per cui..prima di scrivere in maiuscoletto che il mondo spara stronzate e che è tutto inutile.. sarebbe il caso di formarsi un'opinione consapevole delle cose.
  • attonito scrive:
    linux al tappeto!
    con 80 core, vista schizzera' come non mai.Linux ha i giorni contati...TIFENTEREMO PATRONI DI MONTO!!!Guglielmo Cancellioh, si scherza, dai :-)
  • gino pino scrive:
    ma l'altro giorno
    ma l'altro giorno non si diceva che oltre gli 8 core le prestazioni tendono addirittura a diminuire?!?
    • Dti Revenge scrive:
      Re: ma l'altro giorno
      - Scritto da: gino pino
      ma l'altro giorno non si diceva che oltre gli 8
      core le prestazioni tendono addirittura a
      diminuire?!?NO, migliorano, ma migliora solo la velocità del clock. Poi Hd e Ram fanno fatica a stargli dietro... Si verifica il cosiddetto "collo di bottiglia"-----------------------------------------------------------Modificato dall' autore il 20 novembre 2008 09.43-----------------------------------------------------------
    • fray scrive:
      Re: ma l'altro giorno
      E' cosa risaputa da anni. Anni di ricerche sul parallelismo massiccio.Se la memoria e' condivisa e' assolutamente inutile andare oltre gli 8 core. (anzi a mio modesto parere inutile avere anche 4 core).Se poi iniziano magari a fare macchine parallele a memoria distribuita......qualcosa puo' migliorare.
    • pabloski scrive:
      Re: ma l'altro giorno
      dipende da come è progettato l'interfacciamento alla memoriase io metto 200 processori e poi questi sono in continua competizione per accedere ad una RAM che non riesce a tenere il passo, è inutilema se i core/processori hanno memorie locali e cache di dimensioni soddisfacenti allora il discorso cambia radicalmenteovviamente le politiche di scheduling dell'os sono un altro fattore importante....per esempio lo scheduler ULE di freebsd è il migliore in quanto a performance con sistemi multicpu/multicore
  • Lepaca scrive:
    dubbi
    qui dicono che oltre gli 8 core non si hanno piu' benefici:http://www.programmazione.it/index.php?entity=eitem&idItem=40603
    • HAL scrive:
      Re: dubbi
      Come sempre, il software è il problema, troppo lento ad evolversi, a partire dal S.O.
    • Whishper scrive:
      Re: dubbi
      dipende - da sw a sw... io ho scritto un prog, per l'esame di calcolatori 2, con indice di parallelizzabilità del 99.999999%. Quello ti scalava anche su di un 10000 core! per la cronaca era un filtro grafico, bastava suddividere l'immagine in blocchi (tanti quanti i processori) e poi occuparsi dei bordi (parallelizzando anche questo). Ovviamente la maggior parte del sw non può ambire a tanto, ma è decisamente troppo generico dire che non serve a nulla... in ogni caso il sw deve essere scritto con un occhio di riguardo a ciò
      • Lepaca scrive:
        Re: dubbi
        l'articolo parla di problemi hw, non sw...
        • okkio scrive:
          Re: dubbi
          si, ma il discorso è che per sfruttare al meglio 'n' core si usa la programmazione parallela.ed è anche vero il contrario, cioè che usando la normale programmazione, non sfrutti al massimo gli 'n' core.morale della favola: se lanci programmi scritti non-paralleli su un multi core non puoi aspettarti chissà quali magie!
          • pabloski scrive:
            Re: dubbi
            ma non bisogna dimenticare che i moderni sistemi sono multitasking e che di fatto già oggi sui nostri PC ci sono 50-60 processi attivi appena dopo il boote con un OS che ovviamente sfrutta come si deve il multiprocessing i vantaggi si hannoovviamente dipende dalle attività che si fannopuò benissimo essere che per un uso normale basta un core singolo per far girare a dovere i 50-60 processi in background, il browser, il lettore email e un paio di DivXe infatti Intel ha messo in commercio l'Atom per questi scopi....Atom che adesso è dual core ma chiaramente i due core dell'atom valgono come potenza quanto mezzo core di un nehalemil problema è che chi acquista c'ha le manie di grandezza e opta per un core i7 965 extreme quando gli basterebbe un via nanoproprio a proposito dei core i7 sono rimasto stravolto dai commenti letti nei forum....in pratica per loro i7 = 965, gli altri due manco esistonocioè c'è gente là fuori con la mania di comprare il processore più grosso che ci sia in giro, altrimenti si sentono handicappati
      • -ToM- scrive:
        Re: dubbi
        - Scritto da: Whishper
        dipende - da sw a sw... io ho scritto un prog,
        per l'esame di calcolatori 2, con indice di
        parallelizzabilità del 99.999999%. Quello ti
        scalava anche su di un 10000 core! per la cronaca
        era un filtro grafico, bastava suddividere
        l'immagine in blocchi (tanti quanti i processori)
        e poi occuparsi dei bordi (parallelizzando anche
        questo). Ovviamente la maggior parte del sw non
        può ambire a tanto, ma è decisamente troppo
        generico dire che non serve a nulla... in ogni
        caso il sw deve essere scritto con un occhio di
        riguardo a
        ciòQuesto ci fa capire anche come mai 3DSMAX, photoshop e compagnia bella vanno a bomba su macchine co tanti core, e word si aprirà sempre in 10 secondi ;)Io da Grafico e compilatore pazzo sono felice di tutti questi core
    • enjoy scrive:
      Re: dubbi
      le prestazioni non migliorano"...A causa degli schemi di gestione della memoria e alla sua limitata larghezza di banda.."avranno inventato qualcosa per gestire meglio la memoria che sposta un po' in là l'attuale limite di 8 core
      • ba1782 scrive:
        Re: dubbi
        È quello il punto. Finchè non migliorano l'ampiezza di banda di TUTTO ciò che sta dentro il pc(desktop o server), possono fare tutti i core che vogliono, ma sarà della potenza sprecata...IMHO ci vorrebbe una vera e propria RIVOLUZIONE nell'hw per ovviare a questo problema...Ma credo che non sia così semplice..!
    • attonito scrive:
      Re: dubbi
      vero che per un uso DESKTOP, la crescita prestazionale e' molto meno che lineare all'aumentare dei core.Viceversa, in un ambito di PURO CALCOLO (es: centinaia di processi che elaborano ognuno pochi kilobyte di informazioni ognuno) allora la crescita prestazionale e' QUASI lineare al crescere dei core.Tradizione:Se devi giocare va bene anche il tuo dial core, se defi fare calcolo scientifico, riconoscimento pattern, sistemi di simulazione numerica, calcoli vettoriali pesanti, etc etc etc, ALLORA 80 core sono molto appetibili.
    • pabloski scrive:
      Re: dubbi
      dipende dalla larghezza di banda della memoriae a questo proposito faccio notare che intel sta già provvedendo....i famosi core i7 e il qpi sono una soluzione.....infatti, nonostante tutti i gamer gridino allo scandalo, intel ha pensato ad un'architettura modulare in cui è possibile aggiungere/sottrarre core e qpi ....oggi i core i7 implementano 2 qpi, ma nelle soluzioni con più core ne implementeranno di più....tutto questo fa permette di proporzione la larghezza di banda da e verso la ram e proporzionarla in maniera ottimale rispetto al numero di core
  • rockroll scrive:
    Finalmente un Computer " Vista capable"
    Il suo prezzo, comprensivo di una licenza di Windows Vista x64 , parte da 8900 euro IVA esclusa. Una tantum concedete anche a me di spararne ..., visto che lo fanno in tanti!
    • gatsu99 scrive:
      Re: Finalmente un Computer " Vista capable"
      Buahahahahahaha LOL
    • -ToM- scrive:
      Re: Finalmente un Computer " Vista capable"
      - Scritto da: rockroll
      Una tantum concedete anche a me di spararne ...,
      visto che lo fanno in
      tanti!Uso kubuntu 8.10Come pesantezza (velocità, effetti) non si discosta molto dalle prestazioni di vista.Pure OSX su macchine datate (ma non troppo) non è fluido (anche se gli effetti non ci interessano).Basta scegliere bene, se hai una macchina datata non metti Vista, e su linux usi gnome.Un dual core con una scheda video di media qualità e 4 GB di ram te lo fai con 400 euro, e Vista ci gira perfetto.. basta con queste affermazioni costruite sui commenti in rete e sulle esperienze personali di chi ha messo vista sui 386.-----------------------------------------------------------Modificato dall' autore il 20 novembre 2008 13.13-----------------------------------------------------------
      • uncle_gonny scrive:
        Re: Finalmente un Computer " Vista capable"
        bah, sai, non ho un 386 come dici tu ma un dual core a 2ghz, e diciamo che vista ci girava male comunque ;)
        • -ToM- scrive:
          Re: Finalmente un Computer " Vista capable"
          - Scritto da: uncle_gonny
          bah, sai, non ho un 386 come dici tu ma un dual
          core a 2ghz, e diciamo che vista ci girava male
          comunque
          ;)ho un 4200+, non credo che 200(x2)mhz in più facciano differenza, per gli effetti fotonici non mi pronuncio, sono inutili, se ti scattano quelli è un altro par di maniche.Ah, ho 2GB di ram.Qui funziona molto bene... (non avrei motivo di dire il contrario)PS.: è Vista SP1.
          • pabloski scrive:
            Re: Finalmente un Computer " Vista capable"
            vista è scattoso in alcune operazioni, indipendentemente dal processorel'ho testato su tutto da un pentium 4 fino a un core 2 quad, ma permane una scattosità, soprattutto nella versione ultimate, quando si avviano programmi, si installano applicazioni.....dipende ovviamente da UAC e dai vari software antimalware di seriealtro discorso poi è il consumo di ram che ovviamente per alcuni è un problema, per altri noe infine le performance nel trasferimento dati da e verso periferiche di storage usb sono disastrose
          • -ToM- scrive:
            Re: Finalmente un Computer " Vista capable"
            - Scritto da: pabloski
            vista è scattoso in alcune operazioni,
            indipendentemente dal
            processore
            l'ho testato su tutto da un pentium 4 fino a un
            core 2 quad, ma permane una scattosità,Si ma molti problemi di Vista sono legati anche ai drivers delle periferiche. Fino a che non ne ho aggiornati alcuni, una fluidità regolare non l'ho vista nemmeno io...
            soprattutto nella versione ultimate, quando si
            avviano programmi, si installano
            applicazioni.....dipende ovviamente da UAC e dai
            vari software antimalware di
            serie"l'inceppamento" dello UAC e problemi di prestazioni sono due cose differenti
            e infine le performance nel trasferimento dati da
            e verso periferiche di storage usb sono
            disastroseSu questo sono d'accordo...
    • ilmassi scrive:
      Re: Finalmente un Computer " Vista capable"
      il mio portatile del 2006 aveva la scritta "vista capable" ora ho installato vista senza aggiornamenti hardware e mi gira perfettamente...e pensare che anch'io lo criticavo. sei un poverino.
    • -ToM- scrive:
      Re: Finalmente un Computer " Vista capable"
      Basta un athlon 3200 single core con 2GB di ram per far funzionare bene windows Vista.La Apple adesso vende prevalentemente macchine dual core, io ho provato a mettere OSX sun un vecchio G4 1.4Ghz, sembra di lavorare nella melassa.Prima di sparare ste min...ate, assicuriamoci che le macchine su cui si pensa di utilizzare un determinato OS siano per lo meno Entry Level.
      • Sgabbio scrive:
        Re: Finalmente un Computer " Vista capable"
        Ma ti pare giusto che bisogna sempre avere macchine più potenti per i capricci della più grossa software house del mondo ?
        • -ToM- scrive:
          Re: Finalmente un Computer " Vista capable"
          - Scritto da: Sgabbio
          Ma ti pare giusto che bisogna sempre avere
          macchine più potenti per i capricci della più
          grossa software house del mondo
          ?No, assolutamente.Però bisogna valutare anche altri aspetti.In questo momento ho 1GB di ram occupata.- 170 Mega di Firefox (ie anche peggio). Non è colpa di windows.- 20 mega di Skype (Aero,il gestore grafico ne occupa 16) non è colpa di widnows.- I giochi di ultima generazione non scendono sotto i 500 mega di ram. Non è colpa di windows.- Il resto è ram occupata da windows ma la mia è una installazione liscia, non ho disabilitato niente e almeno un centinaio di mega li recupererei ;)di contro ci sono:- N istanze di svchost per un totale di 140 mega, questo è colpa di windows.- Effetti grafici inutili che seppur di poco incidono, come sono inutili gli effetti di OSX (tranne exposé) e quelli di compiz/kwin (tranne alcuni)Trovo scandaloso che Firefox mi mangi 170 mega, non che il sistema se ne prenda 400/500 perchè una condizione di usabilità si raggiunge se il complesso di tutto quello che utilizziamo funziona bene... quindi posso comperare 4GB se il sistema me ne porta via un ottavo ma non voglio saturarli con tre programmi.Con XP se lo usi per fare grafica e mentre lavori hai musica, internet e IM aperti, augurati di avere MINIMO un giga di ram se no te ne ritrovi 100 liberi dopo solo un'ora che hai aperto photoshop.
Chiudi i commenti