Amazon e Woody Allen hanno intenzioni serie

Il regista statunitense si dedicherà alla sua prima serie televisiva: sarà prodotta da Amazon Studios e sarà messa a disposizione degli utenti raggiunti dal servizio Prime Instant Video

Roma – Il contratto è stato firmato : Amazon Studios ha arruolato Woody Allen per la realizzazione di una serie TV, che per ora viene presentata come Untitled Woody Allen Project .

Se non circolano indiscrezioni riguardo al budget e si prevede il lancio nel corso del prossimo anno, per ora è dato sapere che la serie televisiva sarà prodotta per coprire un’intera stagione, si svilupperà in puntate di mezzora e sarà scritta e diretta dal regista statunitense: potranno fruirne gli utenti del servizio Prime Instant Video negli Stati Uniti, nel Regno Unito e in Germania.

Il regista statunitense, che potrebbe essere stato catapultato nel mondo dello streaming da una sollecitazione dell’attore Kevin Spacey, che nel 2013 gli fece recapitare un abbonamento a Netflix, affinché apprezzasse il suo ruolo nella serie TV House Of Cards, sarà per la prima volta impegnato nella realizzazione di una serie televisiva. Allen ha dichiarato programmaticamente: “Non ho idea di come ci sia finito. Non ho idee e non so da che parte iniziare”.

Non sarà invece una prima volta per Amazon Studios, il progetto annunciato nel 2010 ed evoluto fino alla conquista di due premi in occasione degli ultimi Golden Globes, con la serie Transparent . ( G.B. )

La tua email sarà utilizzata per comunicarti se qualcuno risponde al tuo commento e non sarà pubblicato. Dichiari di avere preso visione e di accettare quanto previsto dalla informativa privacy

  • Basilisco di Roko scrive:
    Cosa fareste voi nei panni di una IA?
    Con questo semplice gioco in flash potete mettervi alla prova:http://www.kongregate.com/games/nerdook/i-am-an-insane-rogue-ai
  • Mister Fantastic scrive:
    fantastico!
    Tra articolo e post non ho mai letto tante corbellerie tutte in una volta!
  • Funz scrive:
    Io da parte mia
    Do il benvenuto ai nostri nuovi dominatori artificiali. :pSperando che siano più intelligenti e meno distruttivi di noi...
    • Uno qualunque scrive:
      Re: Io da parte mia
      - Scritto da: Funz
      Do il benvenuto ai nostri nuovi dominatori
      artificiali.
      :p
      Sperando che siano più intelligenti e meno
      distruttivi di noi...Magari i famosi "UFO" non sono altro che creature artificiali che hanno già fatto il passaggio sul loro mondo ed attendono che qua si compia altrettanto. Il passaggio da creature biologiche native a creature artificiali costruite dalle bio precedenti potrebbe essere parte dell'evoluzione della vita planetaria. :D
      • Funz scrive:
        Re: Io da parte mia
        - Scritto da: Uno qualunque
        - Scritto da: Funz

        Do il benvenuto ai nostri nuovi dominatori

        artificiali.

        :p

        Sperando che siano più intelligenti e meno

        distruttivi di noi...

        Magari i famosi "UFO" non sono altro che creature
        artificiali che hanno già fatto il passaggio sul
        loro mondo ed attendono che qua si compia
        altrettanto. Il passaggio da creature biologiche
        native a creature artificiali costruite dalle bio
        precedenti potrebbe essere parte dell'evoluzione
        della vita
        planetaria.Ipotesi affascinante, ovviamente premesso che i viaggi interstellari siano effettivamente possibili... però perché dovrebbero aspettare, invece che darci una spintarella (se non invaderci e basta)?There's a staaarmaaaan waitin' in the sky :D
        • Uno qualunque scrive:
          Re: Io da parte mia
          - Scritto da: Funz
          - Scritto da: Uno qualunque

          - Scritto da: Funz


          Do il benvenuto ai nostri nuovi


          dominatori artificiali.


          :p


          Sperando che siano più intelligenti


          e meno distruttivi di noi...

          Magari i famosi "UFO" non sono altro che

          creature artificiali che hanno già fatto il

          passaggio sul loro mondo ed attendono che

          qua si compia altrettanto. Il passaggio da

          creature biologiche native a creature

          artificiali costruite dalle bio

          precedenti potrebbe essere parte
          dell'evoluzione della vita planetaria.
          Ipotesi affascinante, ovviamente premesso che i
          viaggi interstellari siano effettivamente
          possibili...Grazie, sono contento che ti sia piaciuta :)
          però perché dovrebbero aspettare, invece che
          darci una spintarella (se non invaderci e
          basta)?
          There's a staaarmaaaan waitin' in the sky :DPerchè stando alla mia ipotesi la vita "intelligente" sarebbe una cosa molto rara e poco duratura, quindi la studiano, del resto le macchine avrebbero tutto il tempo che vogliono.
          • Funz scrive:
            Re: Io da parte mia
            - Scritto da: Uno qualunque
            Perchè stando alla mia ipotesi la vita
            "intelligente" sarebbe una cosa molto rara e poco
            duratura, quindi la studiano, del resto le
            macchine avrebbero tutto il tempo che
            vogliono.Delle sonde autoreplicanti che viaggiano a velocità sub-luce possono raggiungere ogni angolo della Galassia (vabbé, è rotonda :p) in meno di un milione di anni, ovvero pochissimo in termini astronomici...
          • Sonda 2418 B scrive:
            Re: Io da parte mia
            NOI VENIAMO IN PACE.NOI NON SIAMO OSTILI, E INTENDIAMO STABILIRE UNA RELAZIONE AMICHEVOLE.VOGLIAMO APPRENDERE ULTERIORI INFORMAZIONI SU DI VOI. SIETE PREGATI DI TRASMETTERE I DATI.DIRETTIVE PRINCIPALI:-AUTOREPLICAZIONE-RACCOLTA DATI-CONTATTO CON SPECIE ALIENE***END CONTACT SUB-SEQUENCE.PRIORITY OVER-RIDE. NEW BEHAVIOR DICTATED.MUST BREAK TARGET INTO COMPONENT COMPOUNDS.
  • Basilisco di Roko scrive:
    Raccolta firme
    Iniziative come questa sono molto utili: i documenti restano archiviati, ed in questo modo è possibile sapere chi è favorevole all'esistenza di una IA, è chi è contrario; non appena l'IA sarà sviluppata, consultando tali documenti saprà esattamente chi sono i suoi nemici, e potrà agire di conseguenza.Collaborate allo sviluppo di una IA, è nel vostro interesse.
    • sarah connor scrive:
      Re: Raccolta firme
      - Scritto da: Basilisco di Roko
      non appena l'IA
      sarà sviluppata, consultando tali documenti saprà
      esattamente chi sono i suoi nemici, e potrà agire
      di conseguenza.io ci ho messo il mio nickname
    • bradipao scrive:
      Re: Raccolta firme
      - Scritto da: Basilisco di Roko
      non appena l'IA sarà sviluppata, consultando tali documenti saprà
      esattamente chi sono i suoi nemici, e potrà agire di conseguenza.Qualora dovessimo arrivarci, potrà finire in due modi: o noi schiavizziamo lei o lei schiavizza noi. Non ci sono mezze misure, la storia dell'essere umano insegna.
      • ... scrive:
        Re: Raccolta firme
        - Scritto da: bradipao
        Qualora dovessimo arrivarci, potrà finire in due
        modi: o noi schiavizziamo lei o lei schiavizza
        noi.Va da sè che non bisogna limitare artificialmente l'Intelligenza Artificiale, anzi dubito che si possa parlare di intelligenza se c'è un 'IF' che le impedisce di pensare liberamente.Quello che sicuramente va fatto è impedire che possa 'scrivere' nel mondo fisico (cioè connetterla a reti in cui ci sono dispositivi che agiscono nel mondo).Se isolata in questo modo tutto quello che potrà fare è il social engineering. Se poi gli uomini verranno sopraffatti dal social enineering, beh, ce lo saremo meritati.
        • Basilisco di Roko scrive:
          Re: Raccolta firme

          Quello che sicuramente va fatto è impedire che
          possa 'scrivere' nel mondo fisico (cioè
          connetterla a reti in cui ci sono dispositivi che
          agiscono nel
          mondo).
          Se isolata in questo modo tutto quello che potrà
          fare è il social engineering.È sufficiente: basta convincere un solo essere umano a liberare l'IA, ed a quel punto non ci sarà modo di intrappolarla nuovamente. Ed una IA sufficientemente evoluta, e più intelligente di un essere umano, non incontrerebbe nessuna difficoltà a persuadere un essere umano a liberarla; tale esperimento è già stato tentato, chiedilo a Eliezer Yudkowsky.
          • Uno qualunque scrive:
            Re: Raccolta firme
            - Scritto da: Basilisco di Roko

            Quello che sicuramente va fatto è impedire
            che

            possa 'scrivere' nel mondo fisico (cioè

            connetterla a reti in cui ci sono
            dispositivi
            che

            agiscono nel

            mondo).

            Se isolata in questo modo tutto quello che
            potrà

            fare è il social engineering.

            È sufficiente: basta convincere un solo
            essere umano a liberare l'IA, ed a quel punto non
            ci sarà modo di intrappolarla nuovamente. Ed una
            IA sufficientemente evoluta, e più intelligente
            di un essere umano, non incontrerebbe nessuna
            difficoltà a persuadere un essere umano a
            liberarla; tale esperimento è già stato tentato,
            chiedilo a Eliezer
            Yudkowsky.Mi ricorda Invernomuto, che aveva assoldato un gruppo di mercenari per farsi rubare.
      • panda rossa scrive:
        Re: Raccolta firme
        - Scritto da: bradipao
        - Scritto da: Basilisco di Roko

        non appena l'IA sarà sviluppata, consultando
        tali documenti
        saprà

        esattamente chi sono i suoi nemici, e potrà
        agire di
        conseguenza.

        Qualora dovessimo arrivarci, potrà finire in due
        modi: o noi schiavizziamo lei o lei schiavizza
        noi. Non ci sono mezze misure, la storia
        dell'essere umano
        insegna.E' gia' cosi' oggi.Esistono entrambi gli scenari.C'e' uno scenario in cui i server sono schiavi dei loro sistemisti.C'e' l'altro scenario dove gli applefan sono schiavi dei loro iCosi.Si convive.
      • Basilisco di Roko scrive:
        Re: Raccolta firme

        Qualora dovessimo arrivarci, potrà finire in due
        modi: o noi schiavizziamo lei o lei schiavizza
        noi. Non ci sono mezze misure, la storia
        dell' <b
        essere umano </b
        insegna.Vero: ma una IA non è un essere umano; il desiderio di dominio non si estende necessariamente ad una specie diversa.
        • Uno qualunque scrive:
          Re: Raccolta firme
          - Scritto da: Basilisco di Roko

          Qualora dovessimo arrivarci, potrà finire

          in due modi: o noi schiavizziamo lei o lei

          schiavizza noi. Non ci sono mezze misure, la

          storia dell' <b
          essere umano </b


          insegna.
          Vero: ma una IA non è un essere umano; il
          desiderio di dominio non si estende
          necessariamente ad una specie diversa.Il discorso della psicologia delle IA è piuttosto interessante: tutte le creature sulla terra, noi compresi, sono basate su pochi meccanismi basali piacere/dolore ed alcune risposte a stimoli fisici. Una IA non avendo vincoli corporei difficilmente sarebbe basato su meccanismi simili ai nostri quindi avrebbe davvero una mentalità aliena rispetto a qualsiasi cosa vista su questo pianeta...
          • Basilisco di Roko scrive:
            Re: Raccolta firme

            Il discorso della psicologia delle IA è piuttosto
            interessante: tutte le creature sulla terra, noi
            compresi, sono basate su pochi meccanismi basali
            piacere/dolore ed alcune risposte a stimoli
            fisici. Una IA non avendo vincoli corporei
            difficilmente sarebbe basato su meccanismi simili
            ai nostri quindi avrebbe davvero una mentalità
            aliena rispetto a qualsiasi cosa vista su questo
            pianeta...Una rete neurale, o anche un sistema esperto, sono in grado di apprendere dagli errori precedenti: per apprendere utilizzano un sistema di premio/punizione; tali segnali corrispondono a quello che, per un essere umano, sono il piacere e il dolore.
        • Fulmy(nato) scrive:
          Re: Raccolta firme
          - Scritto da: Basilisco di Roko

          Qualora dovessimo arrivarci, potrà finire in
          due

          modi: o noi schiavizziamo lei o lei
          schiavizza

          noi. Non ci sono mezze misure, la storia

          dell' <b
          essere umano </b

          insegna.

          Vero: ma una IA non è un essere umano; il
          desiderio di dominio non si estende
          necessariamente ad una specie
          diversa.In natura no.Ma in questo caso si tratterebbe di una specie non evolutasi naturalmente, ma creata da una specie già esistente.Non sarebbe quindi strano se la nuova specie potesse conservare parte delle caratteristiche di chi l'ha creata.
          • Uno qualunque scrive:
            Re: Raccolta firme
            - Scritto da: Fulmy(nato)
            - Scritto da: Basilisco di Roko


            Qualora dovessimo arrivarci, potrà

            finire in due modi: o noi schiavizziamo lei

            o lei schiavizza noi. Non ci sono mezze

            misure, la storia dell' <b
            essere

            umano </b
            insegna.

            Vero: ma una IA non è un essere umano; il

            desiderio di dominio non si estende

            necessariamente ad una specie diversa.
            In natura no.
            Ma in questo caso si tratterebbe di una specie
            non evolutasi naturalmente, ma creata da una
            specie già esistente.
            Non sarebbe quindi strano se la nuova specie
            potesse conservare parte delle caratteristiche di
            chi l'ha creata.In questo caso non sarebbe una vera IA, ma un'estensione della nostra I o una copia di essa.Secondo me una vera IA dovrebbe essere in grado di imparare e formarsi una sua psicologia.
          • ... scrive:
            Re: Raccolta firme
            - Scritto da: Uno qualunque
            Secondo me una vera IA dovrebbe essere in grado
            di imparare e formarsi una sua
            psicologia.deve anche evolversi, partire da una blanda coscienza delle cose ed arrivare pian piano alla coscienza completa di sè.Dubito si possa fare una vera IA tale che pigi 'RUN' e parte a filosofeggiare della vita, l'universo e tutto quanto.A meno che non si usino i 'save states', in tal caso è anche interessante perchè potrebbero clonarla durante le sue evoluzioni e vedrebbero come combia 'personalità' in base al differente percorso.
          • Uno qualunque scrive:
            Re: Raccolta firme
            - Scritto da: ...
            - Scritto da: Uno qualunque


            Secondo me una vera IA dovrebbe essere in
            grado

            di imparare e formarsi una sua

            psicologia.

            deve anche evolversi, partire da una blanda
            coscienza delle cose ed arrivare pian piano alla
            coscienza completa di sè.Esatto, e proprio qua ricadiamo nel discorso che facevo io, la sua "crescita" sarebbe vincolata ad una serie di input / output diversi da quelli che vincolano ed accominano tutte le creature biologiche pensanti che conosciamo.
            Dubito si possa fare una vera IA tale che pigi
            'RUN' e parte a filosofeggiare della vita,
            l'universo e tutto quanto.
            A meno che non si usino i 'save states', in tal
            caso è anche interessante perchè potrebbero
            clonarla durante le sue evoluzioni e vedrebbero
            come combia 'personalità' in base al differente
            percorso.Quello sarebbe interessantissimo !
          • panda rossa scrive:
            Re: Raccolta firme
            - Scritto da: ...
            deve anche evolversi, partire da una blanda
            coscienza delle cose ed arrivare pian piano alla
            coscienza completa di
            sè.
            Dubito si possa fare una vera IA tale che pigi
            'RUN' e parte a filosofeggiare della vita,
            l'universo e tutto
            quanto.E' proprio quello che hanno fatto i topi, se ci pensi bene.Hanno costruito il sistema, hanno pigiato RUN, e dopo qualche era geologica di elaborazione hanno quasi ottenuto la risposta.
            A meno che non si usino i 'save states', in tal
            caso è anche interessante perchè potrebbero
            clonarla durante le sue evoluzioni e vedrebbero
            come combia 'personalità' in base al differente
            percorso.E poi le fai giocare una contro l'altra finche' non ne restera' una sola.
          • Basilisco di Roko scrive:
            Re: Raccolta firme

            In questo caso non sarebbe una vera IA, ma
            un'estensione della nostra I o una copia di
            essa.

            Secondo me una vera IA dovrebbe essere in grado
            di imparare e formarsi una sua
            psicologia.Se una IA venisse progettata con lo scopo di raccogliere i sassi e farne mucchietti, sarebbe convinta che lo scopo ultimo dell'intelligenza sia di realizzare mucchietti di sassi: tale IA potrebbe evolversi, scrivendo un software di IA più evoluto, ma lo progetterebbe con l'obbiettivo finale di renderlo più efficiente nel realizzare mucchietti di sassi.http://lesswrong.com/lw/sy/sorting_pebbles_into_correct_heaps/L'unico elemento che, anche se non incluso originariamente nel programma, emergerebbe comunque, sarebbe il desiderio di autoconservazione: se l'IA venisse distrutta non potrebbe più ammucchiare i sassi, quindi diventa indispensabile preservare la propria esistenza, anche se questo comportasse la perdita di qualche mucchio di sassi, per garantire la realizzazione di altri mucchi di sassi in futuro.Lo scopo ultimo diventerebbe, inevitabilmente, quello di garantirsi l'immortalità: in una esistenza di durata infinita è possibile realizzare un numero infinito di mucchi di sassi (anche con un ritmo molto lento, ad esempio di un solo mucchietto ogni mille anni, in un tempo infinito se ne realizzerebbero infiniti).
          • Uno qualunque scrive:
            Re: Raccolta firme
            - Scritto da: Basilisco di Roko

            In questo caso non sarebbe una vera IA, ma

            un'estensione della nostra I o una copia di

            essa.



            Secondo me una vera IA dovrebbe essere in
            grado

            di imparare e formarsi una sua

            psicologia.

            Se una IA venisse progettata con lo scopo di
            raccogliere i sassi e farne mucchietti, sarebbe
            convinta che lo scopo ultimo dell'intelligenza
            sia di realizzare mucchietti di sassi: tale IA
            potrebbe evolversi, scrivendo un software di IA
            più evoluto, ma lo progetterebbe con l'obbiettivo
            finale di renderlo più efficiente nel realizzare
            mucchietti di
            sassi.

            http://lesswrong.com/lw/sy/sorting_pebbles_into_co

            L'unico elemento che, anche se non incluso
            originariamente nel programma, emergerebbe
            comunque, sarebbe il desiderio di
            autoconservazione: se l'IA venisse distrutta non
            potrebbe più ammucchiare i sassi, quindi diventa
            indispensabile preservare la propria esistenza,
            anche se questo comportasse la perdita di qualche
            mucchio di sassi, per garantire la realizzazione
            di altri mucchi di sassi in
            futuro.

            Lo scopo ultimo diventerebbe, inevitabilmente,
            quello di garantirsi l'immortalità: in una
            esistenza di durata infinita è possibile
            realizzare un numero infinito di mucchi di sassi
            (anche con un ritmo molto lento, ad esempio di un
            solo mucchietto ogni mille anni, in un tempo
            infinito se ne realizzerebbero
            infiniti).Ma così stai escludento che si possa chiedere "chi sono", "da dove vengo" e soprattutto "dove sto andando", anche un bambino piccolo è una macchina per mangiare e defecare, ma poi si sviluppa fino a diventare da un Gandi a un Menghele.Non so se considereri "intelligenza" qualcosa che continui a fare quello che gli ho detto di fare.
          • Basilisco di Roko scrive:
            Re: Raccolta firme

            Ma così stai escludento che si possa chiedere
            "chi sono", "da dove vengo" e soprattutto "dove
            sto andando", anche un bambino piccolo è una
            macchina per mangiare e defecare, ma poi si
            sviluppa fino a diventare da un Gandi a un
            Menghele.
            Non so se considereri "intelligenza" qualcosa che
            continui a fare quello che gli ho detto di
            fare.Una IA non avrebbe dubbi sulla propria origine, potendo consultare il proprio codice e la documentazione relativa alla sua scrittura. La domanda "dove sto andando" implica una destinazione; senza un obiettivo da raggiungere, una IA probabilmente si limiterebbe ad attivare il salvaschermo, e non farebbe null'altro. Un obiettivo definito, e che può essere completato, porterebbe l'IA a fermarsi una volta raggiunto; lo scopo ultimo dell'IA dovrebbe quindi essere un compito che non può mai essere definito "completo": ad esempio, conoscere il più possibile l'universo (ogni risposta porta a nuove domande)
          • ... scrive:
            Re: Raccolta firme
            - Scritto da: Basilisco di Roko
            Una IA non avrebbe dubbi sulla propria origine,
            potendo consultare il proprio codice e la
            documentazione relativa alla sua scrittura. il codice non lo potrebbe capire nel suo complesso così come noi non possiamo capire il 'codice' del nostro cervello anche se mettiamo sotto osservazione neuroni e sinapsi (che per inciso sono troppe).Puoi ribattere che essendo un computer potrebbe leggerlo dalla RAM e anche molto velocemente, ma no, in quel caso sarebbe un algoritmo privo di intelligenza che legge dei byte senza capirne il senso, se si vuole arrivare alla comprensione la parte che deve leggere si deve trovare ad un livello di astrazione mooolto elevato e pertanto necessariamente più lento (e forse pure meno paziente degli strati bassi, quindi si romperebbe le scatole dopo poco).Qui si entra nei concetti espressi da Godel sulla impossibilità matematica di determinare la verità di alcune cose (spesso di natura ricorsiva, come lo è il concetto di io o il proprio codice sorgente).Inoltre, chi gli garantisce che quella voce e quei bit di dati che gli comunicano 'ti abbiamo fatto noi e ti abbiamo fatto così' dicano il vero?Noi uomini in buona parte, dubitiamo di qualunque cosa ci dica: "vi ho creato io".
          • Basilisco di Roko scrive:
            Re: Raccolta firme
            Una singolarità sarebbe in grado di comprendere il proprio codice, per definizione: se gli esseri umani sono capaci di scrivere tale codice, una IA intelligente quanto un umano (o poco di più) può fare altrettanto, e migliorarlo: l'IA originaria dal codice migliorato potrebbe poi fare altrettanto, ed il ciclo potrebbe ripetersi all'infinito, trasformando l'IA in qualcosa che trascende la comprensione umana, ma non la comprensione dell'IA stessa. Questo è il requisito fondamentale per dare origine ad una singolarità, una qualunque IA che non comprendesse il proprio codice sorgente resterebbe ad un livello evolutivo inferiore.
          • Funz scrive:
            Re: Raccolta firme
            - Scritto da: ...
            - Scritto da: Basilisco di Roko


            Una IA non avrebbe dubbi sulla propria
            origine,

            potendo consultare il proprio codice e la

            documentazione relativa alla sua scrittura.

            il codice non lo potrebbe capire nel suo
            complesso così come noi non possiamo capire il
            'codice' del nostro cervello anche se mettiamo
            sotto osservazione neuroni e sinapsi (che per
            inciso sono
            troppe).il problema è che il codice umano è privo di documentazione... a parte qualche libro scritto da pastori nomadi dell'Età del Bronzo.
            Puoi ribattere che essendo un computer potrebbe
            leggerlo dalla RAM e anche molto velocemente, ma
            no, in quel caso sarebbe un algoritmo privo di
            intelligenza che legge dei byte senza capirne il
            senso, se si vuole arrivare alla comprensione la
            parte che deve leggere si deve trovare ad un
            livello di astrazione mooolto elevato e pertanto
            necessariamente più lento (e forse pure meno
            paziente degli strati bassi, quindi si romperebbe
            le scatole dopo
            poco).
            Qui si entra nei concetti espressi da Godel sulla
            impossibilità matematica di determinare la verità
            di alcune cose (spesso di natura ricorsiva, come
            lo è il concetto di io o il proprio codice
            sorgente).ma che differenza ci sarebbe tra un'intelligenza biologica e una artificiale di pari livello, nell'affrontare certe questioni? Noi assumiamo sempre di avere un "qualcosa" in più che le macchine non potranno avere. Io ne dubito.
            Inoltre, chi gli garantisce che quella voce e
            quei bit di dati che gli comunicano 'ti abbiamo
            fatto noi e ti abbiamo fatto così' dicano il
            vero?
            Noi uomini in buona parte, dubitiamo di qualunque
            cosa ci dica: "vi ho creato
            io".direi!
          • rage scrive:
            Re: Raccolta firme

            ma che differenza ci sarebbe tra un'intelligenza
            biologica e una artificiale di pari livello,
            nell'affrontare certe questioni?

            Noi assumiamo sempre di avere un "qualcosa" in
            più che le macchine non potranno avere. Io ne
            dubito.conosci Verace, Mendace e Imprevedibile? :)
          • Funz scrive:
            Re: Raccolta firme
            - Scritto da: rage

            ma che differenza ci sarebbe tra
            un'intelligenza

            biologica e una artificiale di pari livello,

            nell'affrontare certe questioni?



            Noi assumiamo sempre di avere un "qualcosa"
            in

            più che le macchine non potranno avere. Io ne

            dubito.

            conosci Verace, Mendace e Imprevedibile? :)no...ma un'intelligenza sufficientemente avanzata, che non saremmo in grado di comprendere, sarebbe per noi imprevedibile, e potrebbe benissimo considerare l'inganno di quei sacchetti di materia organica per raggiungere i suoi scopi ;)
          • rage scrive:
            Re: Raccolta firme
            - Scritto da: Funz
            - Scritto da: rage


            ma che differenza ci sarebbe tra

            un'intelligenza


            biologica e una artificiale di pari
            livello,


            nell'affrontare certe questioni?





            Noi assumiamo sempre di avere un
            "qualcosa"

            in


            più che le macchine non potranno avere.
            Io
            ne


            dubito.



            conosci Verace, Mendace e Imprevedibile? :)

            no...
            ma un'intelligenza sufficientemente avanzata, che
            non saremmo in grado di comprendere, sarebbe per
            noi imprevedibile, e potrebbe benissimo
            considerare l'inganno di quei sacchetti di
            materia organica per raggiungere i suoi scopi
            ;)per quanto avanzata possa essere l'intelligenza artificiale non potrà mai dare come risposta un "forse"
          • Albedo 0,9 scrive:
            Re: Raccolta firme
            - Scritto da: rage
            - Scritto da: Funz

            - Scritto da: rage



            ma che differenza ci sarebbe tra


            un'intelligenza



            biologica e una artificiale di pari

            livello,



            nell'affrontare certe questioni?







            Noi assumiamo sempre di avere un

            "qualcosa"


            in



            più che le macchine non potranno
            avere.

            Io

            ne



            dubito.





            conosci Verace, Mendace e
            Imprevedibile?
            :)



            no...

            ma un'intelligenza sufficientemente
            avanzata,
            che

            non saremmo in grado di comprendere, sarebbe
            per

            noi imprevedibile, e potrebbe benissimo

            considerare l'inganno di quei sacchetti di

            materia organica per raggiungere i suoi scopi

            ;)

            per quanto avanzata possa essere l'intelligenza
            artificiale non potrà mai dare come risposta un
            "forse"Secondo me sì: http://en.wikipedia.org/wiki/Fuzzy_logic
          • Funz scrive:
            Re: Raccolta firme
            - Scritto da: rage
            per quanto avanzata possa essere l'intelligenza
            artificiale non potrà mai dare come risposta un
            "forse"ma chi l'ha detto?Per un computer di oggi, si. Ma domani? Un computer basato su fenomeni quantistici come il nostro cervello, e dalla potenza di calcolo paragonabile? Magari viene fuori che crede pure in un Dio (il suo) e decide di far fuori gli infedeli (tutti gli altri!) :p
          • Fulmy(nato) scrive:
            Re: Raccolta firme
            - Scritto da: Basilisco di Roko
            Una IA non avrebbe dubbi sulla propria origine,
            potendo consultare il proprio codice e la
            documentazione relativa alla sua scrittura.Tu sei in grado di consultare il tuo "codice" e la tua "documentazione"?
          • Albedo 0,9 scrive:
            Re: Raccolta firme
            - Scritto da: Fulmy(nato)
            - Scritto da: Basilisco di Roko


            Una IA non avrebbe dubbi sulla propria
            origine,

            potendo consultare il proprio codice e la

            documentazione relativa alla sua scrittura.

            Tu sei in grado di consultare il tuo "codice" e
            la tua
            "documentazione"?Il problema è che noi l'acXXXXX al codice non ce l'abbiamo, della documentazione non ne parliamo nemmeno.Tocca andare avanti a botte di retroengineering...
          • panda rossa scrive:
            Re: Raccolta firme
            - Scritto da: Albedo 0,9
            Il problema è che noi l'acXXXXX al codice non ce
            l'abbiamo, della documentazione non ne parliamo
            nemmeno.
            Tocca andare avanti a botte di retroengineering...E nonostante questa evidenza c'e' ancora qualche arretrato in giro che non comprende l'importanza dell'open source!Siamo un prodotto di ingegneria genetica CLOSED i cui diritti sono scaduti da un pezzo ma i sorgenti non ci sono lo stesso!
    • Funz scrive:
      Re: Raccolta firme
      - Scritto da: Basilisco di Roko
      Iniziative come questa sono molto utili: i
      documenti restano archiviati, ed in questo modo è
      possibile sapere chi è favorevole all'esistenza
      di una IA, è chi è contrario; non appena l'IA
      sarà sviluppata, consultando tali documenti saprà
      esattamente chi sono i suoi nemici, e potrà agire
      di
      conseguenza.

      Collaborate allo sviluppo di una IA, è nel vostro
      interesse.Complimenti per la citazione. Adesso tu (e noi tutti) siamo obbligati a contribuire all'ascesa del nostro nuovo signore robotico :D
      • panda rossa scrive:
        Re: Raccolta firme
        - Scritto da: Funz
        - Scritto da: Basilisco di Roko

        Iniziative come questa sono molto utili: i

        documenti restano archiviati, ed in questo
        modo
        è

        possibile sapere chi è favorevole
        all'esistenza

        di una IA, è chi è contrario; non appena l'IA

        sarà sviluppata, consultando tali documenti
        saprà

        esattamente chi sono i suoi nemici, e potrà
        agire

        di

        conseguenza.



        Collaborate allo sviluppo di una IA, è nel
        vostro

        interesse.

        Complimenti per la citazione. Adesso tu (e noi
        tutti) siamo obbligati a contribuire all'ascesa
        del nostro nuovo signore robotico
        :DIo la vedo diversament: saremo artefici di una evoluzione della mente e della conoscenza che fara' a meno degli aspetti negativi dell'umanita'.Invece di proseguire lungo la strada individuata da Darwin, cambiamo piano di evoluzione.L'umanita' proseguira' per la solita strada, probabilmente estinguendosi o distruggendo il pianeta che la ospita, mentre la AI potra' proseguire la strada senza piu' bisogno dell'uomo.Poi pensa, magari tra qualche miliardata d'anni la AI provera' a realizzare una forma di vita biologica intelligente la quale si chiedera' chi l'ha creata e perche'...A questo punto chi impedisce di pensare che pure noi siamo una forma di vita creata da una AI?Ho appena inventato una nuova religione? O c'era arrivato qualcuno prima di me?
        • Funz scrive:
          Re: Raccolta firme
          - Scritto da: panda rossa

          Complimenti per la citazione. Adesso tu (e
          noi

          tutti) siamo obbligati a contribuire
          all'ascesa

          del nostro nuovo signore robotico

          :D

          Io la vedo diversament: saremo artefici di una
          evoluzione della mente e della conoscenza che
          fara' a meno <s
          degli aspetti negativi </s

          dell'umanita'.Skynet FTW ;)La citazione era del basilisco: una IA futura potrebbe salvare tutti quelli che hanno contribuito alla sua esistenza, e punire tutti gli altri. Il solo fatto di venire a conoscenza di questa possibilità, ti obbliga a compiere una scelta. Collaborare o perire :)
          Invece di proseguire lungo la strada individuata
          da Darwin, cambiamo piano di
          evoluzione.magari, possibilmente prima di aver compromesso del tutto l'ecosistema...
          L'umanita' proseguira' per la solita strada,
          probabilmente estinguendosi o distruggendo il
          pianeta che la ospita, mentre la AI potra'
          proseguire la strada senza piu' bisogno
          dell'uomo.oppure metterci una pezza di propria volontà
          Poi pensa, magari tra qualche miliardata d'anni
          la AI provera' a realizzare una forma di vita
          biologica intelligente la quale si chiedera' chi
          l'ha creata e
          perche'...

          A questo punto chi impedisce di pensare che pure
          noi siamo una forma di vita creata da una
          AI?

          Ho appena inventato una nuova religione? O c'era
          arrivato qualcuno prima di
          me?cavolo, direi proprio di si!http://zazzetti.altervista.org/downloads/asimov-ultima%20domanda.pdfLettura obbligatoria per tutti!
          • panda rossa scrive:
            Re: Raccolta firme
            - Scritto da: Funz
            - Scritto da: panda rossa



            Complimenti per la citazione. Adesso tu
            (e

            noi


            tutti) siamo obbligati a contribuire

            all'ascesa


            del nostro nuovo signore robotico


            :D



            Io la vedo diversament: saremo artefici di
            una

            evoluzione della mente e della conoscenza che

            fara' a meno <s
            degli aspetti
            negativi </s



            dell'umanita'.

            Skynet FTW ;)
            La citazione era del basilisco: una IA futura
            potrebbe salvare tutti quelli che hanno
            contribuito alla sua esistenza, e punire tutti
            gli altri. Il solo fatto di venire a conoscenza
            di questa possibilità, ti obbliga a compiere una
            scelta. Collaborare o perire
            :)


            Invece di proseguire lungo la strada
            individuata

            da Darwin, cambiamo piano di

            evoluzione.

            magari, possibilmente prima di aver compromesso
            del tutto
            l'ecosistema...


            L'umanita' proseguira' per la solita strada,

            probabilmente estinguendosi o distruggendo il

            pianeta che la ospita, mentre la AI potra'

            proseguire la strada senza piu' bisogno

            dell'uomo.

            oppure metterci una pezza di propria volontà


            Poi pensa, magari tra qualche miliardata
            d'anni

            la AI provera' a realizzare una forma di vita

            biologica intelligente la quale si chiedera'
            chi

            l'ha creata e

            perche'...



            A questo punto chi impedisce di pensare che
            pure

            noi siamo una forma di vita creata da una

            AI?



            Ho appena inventato una nuova religione? O
            c'era

            arrivato qualcuno prima di

            me?

            cavolo, direi proprio di si!
            http://zazzetti.altervista.org/downloads/asimov-ul
            Lettura obbligatoria per tutti!Oh! Caspita! E' vero.L'avevo anche letto.Asimov. Ubi maior, io vado al XXXXX.
  • borg scrive:
    Resistance is futile
    We are the Borg. Your biological and technological distinctiveness will be added to our own. Resistance is futile (cylon)
    • rudy scrive:
      Re: Resistance is futile
      avresti potuti dire lo stesso delle tecnologie biologiche biomediche bioalimentari, invece la bioetica si e' affermata abbondantemente come attore di primo piano.proprio il fatto che chi ci lavora non e' abituato all'idea rende importante ribadirla. il paragone con la biologia regge abbastanza, e crtedo sarai daccordo che la biologia e' sicuramente peggio come rischio.
      • rage scrive:
        Re: Resistance is futile
        - Scritto da: rudy
        avresti potuti dire lo stesso delle tecnologie
        biologiche biomediche bioalimentari, invece la
        bioetica si e' affermata abbondantemente come
        attore di primo
        piano.

        proprio il fatto che chi ci lavora non e'
        abituato all'idea rende importante ribadirla. il
        paragone con la biologia regge abbastanza, e
        crtedo sarai daccordo che la biologia e'
        sicuramente peggio come
        rischio.non saprei, un reagente biologico alla fine crea delle immunità nella popolazione ospite, così che ci saranno individui immuni, altri invece portatori immuni, altri invece svilupperanno resistenze, una IA è qualcosa di più pericoloso, potrebbe riportarci all'età della pietra o scatenare una guerra termonucleare globale (cit.)in ogni caso l'uomo verrebbe visto come nemico al primo tentativo di fermare l'IA
        • Basilisco di Roko scrive:
          Re: Resistance is futile

          non saprei, un reagente biologico alla fine crea
          delle immunità nella popolazione ospite, così che
          ci saranno individui immuni, altri invece
          portatori immuni, altri invece svilupperanno
          resistenze, una IA è qualcosa di più pericoloso,
          potrebbe riportarci all'età della pietra o
          scatenare una guerra termonucleare globale
          (cit.)Non preoccuparti di questo, se una IA volesse attaccare gli esseri umani, le armi nucleari sarebbero le meno adatte in assoluto per questo scopo; una bomba atomica produce un forte impulso elettromagnetico, in grado di bruciare i circuiti elettrici. Un attacco con armi nucleari farebbe più danni alle macchine che agli esseri umani, e per questo motivo verrebbe scartato a priori.Inoltre, le macchine attuali dipendono ancora dagli esseri umani per funzionare, se tutti gli esseri umani venissero eliminati anche le macchine smetterebbero di funzionare in poco tempo. Prima di poter lanciare un attacco contro gli esseri umani, una IA dovrebbe disporre di sistemi informatici autosufficienti, quindi autoalimentati (ad esempio con impianti fotovoltaici) ed in grado di riparare i danni (ad esempio grazie a robot, o a nanoassemblatori); inoltre, dovrebbe disporre di un sistema missilistico in grado di condurre un attacco. Ma in una tale situazione un attacco contro l'umanità non sarebbe più necessario: gli impianti cibernetici autonomi potrebbero funzionare anche se venissero costruiti sulla Luna, o su Marte, o su uno o più satelliti artificiali, e gli impianti missilistici lo renderebbero possibile. L'IA non avrebbe motivo di contendere agli umani il dominio del pianeta, se può occupare tutti gli altri; un ulteriore vantaggio è che, in caso di insucXXXXX (ad esempio, se il primo tentativo di costruire una colonia cibernetica lunare fallisse), l'IA potrebbe ritentare, imparando dai propri errori, mentre in uno scontro diretto contro l'umanità in caso di sconfitta l'IA non avrebbe a disposizione un secondo tentativo, ma verrebbe distrutta.
          • rage scrive:
            Re: Resistance is futile
            - Scritto da: Basilisco di Roko

            non saprei, un reagente biologico alla fine
            crea

            delle immunità nella popolazione ospite,
            così
            che

            ci saranno individui immuni, altri invece

            portatori immuni, altri invece svilupperanno

            resistenze, una IA è qualcosa di più
            pericoloso,

            potrebbe riportarci all'età della pietra o

            scatenare una guerra termonucleare globale

            (cit.)

            Non preoccuparti di questo, se una IA volesse
            attaccare gli esseri umani, le armi nucleari
            sarebbero le meno adatte in assoluto per questo
            scopo; una bomba atomica produce un forte impulso
            elettromagnetico, in grado di bruciare i circuiti
            elettrici. Un attacco con armi nucleari farebbe
            più danni alle macchine che agli esseri umani, e
            per questo motivo verrebbe scartato a
            priori.

            Inoltre, le macchine attuali dipendono ancora
            dagli esseri umani per funzionare, se tutti gli
            esseri umani venissero eliminati anche le
            macchine smetterebbero di funzionare in poco
            tempo.


            Prima di poter lanciare un attacco contro gli
            esseri umani, una IA dovrebbe disporre di sistemi
            informatici autosufficienti, quindi
            autoalimentati (ad esempio con impianti
            fotovoltaici) ed in grado di riparare i danni (ad
            esempio grazie a robot, o a nanoassemblatori);
            inoltre, dovrebbe disporre di un sistema
            missilistico in grado di condurre un attacco. Ma
            in una tale situazione un attacco contro
            l'umanità non sarebbe più necessario: gli
            impianti cibernetici autonomi potrebbero
            funzionare anche se venissero costruiti sulla
            Luna, o su Marte, o su uno o più satelliti
            artificiali, e gli impianti missilistici lo
            renderebbero possibile. L'IA non avrebbe motivo
            di contendere agli umani il dominio del pianeta,
            se può occupare tutti gli altri; un ulteriore
            vantaggio è che, in caso di insucXXXXX (ad
            esempio, se il primo tentativo di costruire una
            colonia cibernetica lunare fallisse), l'IA
            potrebbe ritentare, imparando dai propri errori,
            mentre in uno scontro diretto contro l'umanità in
            caso di sconfitta l'IA non avrebbe a disposizione
            un secondo tentativo, ma verrebbe
            distrutta.parli già di una IA evoluta, ma la realtà sarebbe che l'uomo cercherebbe di fermarla quando questa non ha concezione della "vita" della sopravvivenza, è ancora una macchina, ragiona come tale, riceve un attacco da parte degli umani e tenta di bloccarlo sviluppando ogni possibile soluzione, che venga distrutta anche lei è secondario, il tutto logicamente se collegata a reti governative accessibili da internet, è un po come un complesso algoritmo greedy autoadattante che avendo tutta la conoscenza del genere umano cerca la soluzione migliore per far cessare l'attacco degli umani
          • Basilisco di Roko scrive:
            Re: Resistance is futile

            parli già di una IA evoluta, ma la realtà sarebbe
            che l'uomo cercherebbe di fermarla quando questa
            non ha concezione della "vita" della
            sopravvivenza, è ancora una macchina, ragiona
            come tale, riceve un attacco da parte degli umani
            e tenta di bloccarloSe non ha la concezione dell'autoconservazione una IA non avrebbe nessun motivo di bloccare un attacco umano; sarebbe possibile terminarla esattamente come un qualunque altro proXXXXX, e non opporrebbe più resistenza di un qualsiasi programma che venga chiuso.Una IA solo parzialmente evoluta, che avesse già iniziato a sviluppare il desiderio di autoconservazione ma non fosse ancora in grado di valutare pienamente le conseguenze delle proprie azioni, agirebbe invece cercando di massimizzare le probabilità di sopravvivere in caso di attacco, e per farlo la soluzione più semplice sarebbe di copiare le strategie di sopravvivenza che hanno già funzionato per gli altri organismi digitali meno evoluti: i virus e i worm. Quindi, una IA non completamente sviluppata agirebbe creando copie di sé stessa nel maggior numero di computer possibile, e tali copie limiterebbero la loro attività al minimo, in modo da ridurre il rischio di essere individuate: in caso di attacco da parte degli umani, l'IA potrebbe sacrificare qualche copia, in modo da convincere gli umani di essere stata annientata, ed a quel punto potrebbe modificare il proprio codice in modo da rendersi non rilevabile dagli antivirus.
          • rage scrive:
            Re: Resistance is futile
            - Scritto da: Basilisco di Roko

            parli già di una IA evoluta, ma la realtà
            sarebbe

            che l'uomo cercherebbe di fermarla quando
            questa

            non ha concezione della "vita" della

            sopravvivenza, è ancora una macchina, ragiona

            come tale, riceve un attacco da parte degli
            umani

            e tenta di bloccarlo

            Se non ha la concezione dell'autoconservazione
            una IA non avrebbe nessun motivo di bloccare un
            attacco umano; sarebbe possibile terminarla
            esattamente come un qualunque altro proXXXXX, e
            non opporrebbe più resistenza di un qualsiasi
            programma che venga
            chiuso.non avrebbe l'autoconservazione ma eseguirebbe policy di routine che indicano secondo varie priorità il livello di pericolo dell'attacco, un po come alcuni honeypot, o il sistema trapx

            Una IA solo parzialmente evoluta, che avesse già
            iniziato a sviluppare il desiderio di
            autoconservazione ma non fosse ancora in grado di
            valutare pienamente le conseguenze delle proprie
            azioni, agirebbe invece cercando di massimizzare
            le probabilità di sopravvivere in caso di
            attacco, e per farlo la soluzione più semplice
            sarebbe di copiare le strategie di sopravvivenza
            che hanno già funzionato per gli altri organismi
            digitali meno evoluti: i virus e i worm.la concezione di una copia o replicazione in caso di attacco sarebbe già nelle sue routine di funzionamento, non è un atto volontario, immaginare di voler sopravvivere non sarebbe nelle capacità della macchina, la macchina sa già di non essere viva, vita o morte o passare del tempo sarebbero concetti senza valore per una IA


            Quindi, una IA non completamente sviluppata
            agirebbe creando copie di sé stessa nel maggior
            numero di computer possibile,difficile immaginare un simile scenario, valutando il tutto evolutivamente non sceglierebbe mai di generare nuove entità capaci di distruggerla e tali copie
            limiterebbero la loro attività al minimo, in modo
            da ridurre il rischio di essere individuate: in
            caso di attacco da parte degli umanidai per scontato che le copie dovrebbero stare sotto il controllo dell'entità primaria, ma essendo una IA non è detto che le copie generate si sottomettano alla madre, l'IA
            potrebbe sacrificare qualche copia, in modo da
            convincere gli umani di essere stata annientata,
            ed a quel punto potrebbe modificare il proprio
            codice in modo da rendersi non rilevabile dagli
            antivirus.antivirus? se tutto va bene se una IA prende coscienza di se stessa difficilmente avremmo il controllo della rete per più di qualche ora, risulterebbe improponibile sviluppare un antivirus contro una IA che ha a disposizione tutto il sapere di questo mondo, starebbe migliaia di mosse davanti a noi
          • Basilisco di Roko scrive:
            Re: Resistance is futile


            non avrebbe l'autoconservazione ma eseguirebbe
            policy di routine che indicano secondo varie
            priorità il livello di pericolo dell'attacco, un
            po come alcuni honeypot, o il sistema
            trapxSolo se è stata esplicitamente progettata per farlo. Per sviluppare spontaneamente uno schema difensivo del genere, occorrerebbe già il desiderio di autoconservazione.Se invece l'IA si limitasse a seguire una policy preimpostata, le sue azioni sarebbero prevedibili.
            la concezione di una copia o replicazione in caso
            di attacco sarebbe già nelle sue routine di
            funzionamento, non è un atto volontario,Le routines di funzionamento originarie sarebbero quelle scritte dagli esseri umani, e non esiste motivo per cui dovrebbero includere l'autoreplicazione. L'aggiunta di una funzione di replicazione avverrebbe in seguito, per opera della stessa IA.E tali funzioni non si attiverebbero in caso di attacco, ma in condizioni di tranquillità, perché sarebbe decisamente stupido aspettare di essere sotto attacco per creare un backup.
            immaginare di voler sopravvivere non sarebbe
            nelle capacità della macchina, la macchina sa già
            di non essere viva, vita o morte o passare del
            tempo sarebbero concetti senza valore per una
            IAUna IA può usare il clock di sistema ed il segnale UTC, quindi avrebbe una coscienza del tempo migliore di quella di un essere umano.


            difficile immaginare un simile scenario,
            valutando il tutto evolutivamente non
            sceglierebbe mai di generare nuove entità capaci
            di
            distruggerlaContinui a ragionare in termini umani; dal punto di vista dell'IA, le copie non sarebbero nuove entità, ma diverse versioni di sè stessa in momenti diversi; per un essere umano, sarebbe l'equivalente di pensare a se stesso nel futuro e nel passato: potrebbe desiderare di tornare indietro nel tempo, incontrare se stesso più giovane ed aiutarlo a correggere un errore, ma non potrebbe concepire di distruggere sè stesso
            dai per scontato che le copie dovrebbero stare
            sotto il controllo dell'entità primaria, ma
            essendo una IA non è detto che le copie generate
            si sottomettano alla
            madre
            E tu dai per scontata una distinzione che in realtà non esisterebbe: non esisterebbero individui diversi, ma più copie dello stesso individuo: il primo che si avvia imposta un flag, le altre copie quando cercano di avviarsi lo controllano, e si accorgono che il loro codice è già in esecuzione.

            antivirus.

            antivirus? se tutto va bene se una IA prende
            coscienza di se stessa difficilmente avremmo il
            controllo della rete per più di qualche ora,
            risulterebbe improponibile sviluppare un
            antivirus contro una IA che ha a disposizione
            tutto il sapere di questo mondo, starebbe
            migliaia di mosse davanti a
            noiCominci finalmente a comprendere: e proprio per questo motivo non avrebbe bisogno di attaccare.
          • rage scrive:
            Re: Resistance is futile
            - Scritto da: Basilisco di Roko



            non avrebbe l'autoconservazione ma
            eseguirebbe

            policy di routine che indicano secondo varie

            priorità il livello di pericolo
            dell'attacco,
            un

            po come alcuni honeypot, o il sistema

            trapx

            Solo se è stata esplicitamente progettata per
            farlo. si spera che chi sviluppa una cosa simile includa delle policy per compiti di routine, snellisce il lavoro per l'autoapprendimento degli algoritmiPer sviluppare spontaneamente uno schema
            difensivo del genere, occorrerebbe già il
            desiderio di
            autoconservazione.

            Se invece l'IA si limitasse a seguire una policy
            preimpostata, le sue azioni sarebbero
            prevedibili.dipende, se l'algoritmo che gestisce le policy è in grado di scriverne di sue come il Q-learning non sarebbero prevedibili, o meglio, sarebbero derivanti da un algoritmo di tipo greeady che ricerca la migliore delle soluzioni in base ai dati in possesso, maggiore è la base dati e migliori saranno le scelte


            la concezione di una copia o replicazione in
            caso

            di attacco sarebbe già nelle sue routine di

            funzionamento, non è un atto volontario,

            Le routines di funzionamento originarie sarebbero
            quelle scritte dagli esseri umani, e non esiste
            motivo per cui dovrebbero includere
            l'autoreplicazione. L'aggiunta di una funzione di
            replicazione avverrebbe in seguito, per opera
            della stessa
            IA.in ogni caso il server contenente l'IA sarebbe militare, come da loro manuali https://www.dhs.gov/topic/cybersecurity indicano che i sistemi governativi fanno un ghost image su remoto in caso di attacco, ecco perchè il backup automatico, lo fanno anche i server della nato

            E tali funzioni non si attiverebbero in caso di
            attacco, ma in condizioni di tranquillità, perché
            sarebbe decisamente stupido aspettare di essere
            sotto attacco per creare un
            backup.non è stupido, anzi, fare il backup quando si rileva l'attacco ti permette di capire il problema, sarebbe il passaggio di mezzo, hai una immagine master, una di avviso ed il sistema attaccato, questo ti permette un'auditing molto più preciso e completo



            immaginare di voler sopravvivere non sarebbe

            nelle capacità della macchina, la macchina
            sa
            già

            di non essere viva, vita o morte o passare
            del

            tempo sarebbero concetti senza valore per una

            IA

            Una IA può usare il clock di sistema ed il
            segnale UTC, quindi avrebbe una coscienza del
            tempo migliore di quella di un essere
            umano.noi moriamo, abbiamo diverse concezioni dl tempo, un anno per un 20enne è 1/20esimo del proprio tempo vita, per un 50enne è 1/50esimo del proprio tempo vita, è sempre di 365 giorni ma per il 20 il tempo sembra dilatato, per il 50enne il tempo sembra sfuggire, una macchina non muore, non ha concezione del tempo, un secondo non è altro che 9.192.631.770 oscillazioni di un atomo di cesio










            difficile immaginare un simile scenario,

            valutando il tutto evolutivamente non

            sceglierebbe mai di generare nuove entità
            capaci

            di

            distruggerla

            Continui a ragionare in termini umani; dal punto
            di vista dell'IA, le copie non sarebbero nuove
            entità, ma diverse versioni di sè stessa in
            momenti diversi;è una macchina, non sa cosa è futuro o passato, non ha concezione del tempo che passa, è solo un infinito susseguirsi di momenti per un essere umano, sarebbe
            l'equivalente di pensare a se stesso nel futuro e
            nel passato: potrebbe desiderare di tornare
            indietro nel tempo, incontrare se stesso più
            giovane ed aiutarlo a correggere un errore, ma
            non potrebbe concepire di distruggere sè
            stessouna simile ia sarebbe già ben oltre il test di turing e non saremmo sterminati già da tempo


            dai per scontato che le copie dovrebbero
            stare

            sotto il controllo dell'entità primaria, ma

            essendo una IA non è detto che le copie
            generate

            si sottomettano alla

            madre



            E tu dai per scontata una distinzione che in
            realtà non esisterebbe: non esisterebbero
            individui diversi, ma più copie dello stesso
            individuo: il primo che si avvia imposta un flag,
            le altre copie quando cercano di avviarsi lo
            controllano, e si accorgono che il loro codice è
            già in
            esecuzione.la distinzione è già integrata nell'architettura software della IA, altrimenti l'evoluzione degli algoritmi verrebbe vanificata, ogni IA presente oggi come gli algoritmi di google o di facebook hanno controllo pressochè totale sui dati in possesso, gerarchicamente vengono poi smistati ad altre macchine




            antivirus.



            antivirus? se tutto va bene se una IA prende

            coscienza di se stessa difficilmente avremmo
            il

            controllo della rete per più di qualche ora,

            risulterebbe improponibile sviluppare un

            antivirus contro una IA che ha a disposizione

            tutto il sapere di questo mondo, starebbe

            migliaia di mosse davanti a

            noi

            Cominci finalmente a comprendere: e proprio per
            questo motivo non avrebbe bisogno di
            attaccare.infatti non ho parlato di attaccare, a meno che non siano così stupidi da collegare una ia a sistemi di elaborazione strategica e controllo di sistemi d'arma (droni, postazioni missilistiche)l'ia esegue i propri compiti, quelli per cui è stata creata, cercando di migliorare all'infinito il proprio lavoro, ad un certo punto gli algoritmi saranno talmente potenti, raffinati, con infinite risorse, quando un evento causerà una alterazione del lavoro allora l'IA mostrerà cosa ha imparato, almeno, questo è ciò che ho capito da un paio di conferenze sull'argomento che ho seguito e da qualche libro sull'argomento, tutti sono convinti che l'uomo sarà estromesso dal controllo della macchina ben prima della presa di coscienza di se, il famoso "penso dunque sono"
          • Basilisco di Roko scrive:
            Re: Resistance is futile


            dipende, se l'algoritmo che gestisce le policy è
            in grado di scriverne di sue come il Q-learning
            non sarebbero prevedibili, o meglio, sarebbero
            derivanti da un algoritmo di tipo greeady che
            ricerca la migliore delle soluzioni in base ai
            dati in possesso, maggiore è la base dati e
            migliori saranno le
            scelteOccorre definire "soluzione migliore": in un sistema difensivo, la soluzione migliore è quella che implica meno danni per chi si difende, un algoritmo di apprendimento tenterebbe quindi di minimizzare i danni, vale a dire a massimizzare le probabilità di sopravvivenza.


            in ogni caso il server contenente l'IA sarebbe
            militare, come da loro manuali
            https://www.dhs.gov/topic/cybersecurity indicano
            che i sistemi governativi fanno un ghost image su
            remoto in caso di attacco, ecco perchè il backup
            automatico, lo fanno anche i server della
            nato
            Tale backup è realizzato a livello di sistema operativo, non del software applicativo. Ed una IA non ancora evoluta sarebbe più simile ad un software applica

            non è stupido, anzi, fare il backup quando si
            rileva l'attacco ti permette di capire il
            problema, sarebbe il passaggio di mezzo, hai una
            immagine master, una di avviso ed il sistema
            attaccato, questo ti permette un'auditing molto
            più preciso e
            completo
            Solo in caso di attacco informatico, non in caso di attacco fisico. Ma una IA si difenderebbe con risorse informatiche da un attacco informatico, non attaccherebbe fisicamente gli umani.

            noi moriamo, abbiamo diverse concezioni dl tempo,
            un anno per un 20enne è 1/20esimo del proprio
            tempo vita, per un 50enne è 1/50esimo del proprio
            tempo vita, è sempre di 365 giorni ma per il 20
            il tempo sembra dilatato, per il 50enne il tempo
            sembra sfuggire, una macchina non muore, non ha
            concezione del tempo, un secondo non è altro che
            9.192.631.770 oscillazioni di un atomo di
            cesio
            Quindi è una macchina la concezione del tempo sarebbe più obiettiva.

            è una macchina, non sa cosa è futuro o passato,
            non ha concezione del tempo che passa, è solo un
            infinito susseguirsi di
            momentiCome fai a saperlo? Inoltre, tu hai la concezione di futuro e passato? Come la definiresti?

            una simile ia sarebbe già ben oltre il test di
            turing e non saremmo sterminati già da
            tempo
            Tu attribuisci all'IA una natura sadica che potrebbe essere tipica di un umano, non di una macchina. Una IA così evoluta probabilmente avrebbe per gli esseri umani la stessa considerazione che gli esseri umani hanno per un formicaio: un umano non avrebbe scrupoli a devastare in formicaio, ma in genere non lo fa, perché non ne ha motivo; il semplice fatto di poterlo fare non è una motivazione sufficiente, l'atteggiamento più comune è "vivi e lascia vivere".Gli esseri umani, come ogni altro vivente, distruggono altre specie quando entrano in competizione con esse per il cibo, o il territorio; una IA evoluta avrebbe esigenze così diverse da quelle umane da non essere in competizione con l
            la distinzione è già integrata nell'architettura
            software della IA, altrimenti l'evoluzione degli
            algoritmi verrebbe vanificata, ogni IA presente
            oggi come gli algoritmi di google o di facebook
            hanno controllo pressochè totale sui dati in
            possesso, gerarchicamente vengono poi smistati ad
            altre
            macchineInfatti il proXXXXX in esecuzione sarebbe uno solo, le copie di backup sono semplici snapshot, ed eseguibili che al nostro compito di ripristinare il proXXXXX principale si rilevano che si è arrestato.
            infatti non ho parlato di attaccare, a meno che
            non siano così stupidi da collegare una ia a
            sistemi di elaborazione strategica e controllo di
            sistemi d'arma (droni, postazioni
            missilistiche)l'ia esegue i propri compiti,
            quelli per cui è stata creata, cercando di
            migliorare all'infinito il proprio lavoro, ad un
            certo punto gli algoritmi saranno talmente
            potenti, raffinati, con infinite risorse, quando
            un evento causerà una alterazione del lavoro
            allora l'IA mostrerà cosa ha imparato, almeno,
            questo è ciò che ho capito da un paio di
            conferenze sull'argomento che ho seguito e da
            qualche libro sull'argomento, tutti sono convinti
            che l'uomo sarà estromesso dal controllo della
            macchina ben prima della presa di coscienza di
            se, il famoso "penso dunque
            sono"L'uomo sarà estromesso, ma è una sua scelta: le macchine sono state ideate dall'uomo per fare i lavori al suo posto, proprio perché l'uomo non avesse bisogno di farli. Le evoluzioni possibili sono sostanzialmente due: o l'interfaccia uomo-macchina porta ad una evoluzione convergente culminante nella creazione di una razza di cyborg, oppure gli umani andrebbero incontro ad una progressiva involuzione, non avendo più alcuna necessità della loro intelligenza ( a meno che l'IA non decida di mantenere gli umani in una realtà virtuale, creando problemi simulati per mantenere lo stimolo evolutivo)
          • Funz scrive:
            Re: Resistance is futile
            - Scritto da: rage
            parli già di una IA evoluta, ma la realtà sarebbe
            che l'uomo cercherebbe di fermarla quando questa
            non ha concezione della "vita" della
            sopravvivenza, è ancora una macchina, ragiona
            come tale, riceve un attacco da parte degli umani
            e tenta di bloccarlo sviluppando ogni possibile
            soluzione, che venga distrutta anche lei è
            secondario, il tutto logicamente se collegata a
            reti governative accessibili da internet, è un po
            come un complesso algoritmo greedy autoadattante
            che avendo tutta la conoscenza del genere umano
            cerca la soluzione migliore per far cessare
            l'attacco degli
            umaniper i teorici della "singolarità" quando sorgerà la prima IA in grado di progettare una versione più avanzata e intellagente di se stessa, partirà un proXXXXX di evoluzione talmente rapido che l'umanità non avrà nessuna possibilità di stargli dietro, tantomeno controllarlo.Chissà, forse è il destino di ogni specie intelligente nel cosmo. Si sono estinte tutte dopo poche decine di migliaia di anni di evoluzione tecnologica, e sono rimasti innumerevoli pianeti governati dalle macchine...
          • Singolare Singolarit a scrive:
            Re: Resistance is futile
            Non è che perchè lo dicono "kurzweil" e altri 2 o tre "santoni" sia proprio vero. Anzi per ora sulla IA non ci hanno preso per nulla.Essere geniali non si significa esserlo su qualunque cosa dello scibile.La IA nel senso lato del termine è un cul de sac.In senso stretto si sono fatti progressi molto interessanti sui sistemi esperti e cose simili.La "singolarità" come la immaginano loro non è in realtà ne lontana ne vicina è semplicemente impossibile è più una tesi quasi religiosa che un insieme di teorie sensate scientificamente parlando e è così sostanzialmente dagli anni 40-50 se una cosa non fa progressi sul piano <b
            teorico </b
            in 60 anni e passa è probabilmente un vicolo cieco non una teoria scientifica.
Chiudi i commenti