Google ha presentato i risultati finanziari del quarto ed ultimo trimestre fiscale relativo al 2014, nonché un bilancio dell’anno da poco conclusosi.
Il fatturato degli ultimi tre mesi è stato pari 18,1 miliardi di dollari , una crescita del 15 per cento nonostante le fluttuazioni subite dalle valute a livello globale e il perdurare del periodo di crisi: permette a Mountain View di chiudere il 2014 con un fatturato totale pari a 66 miliardi di dollari , una crescita di 19 punti percentuali rispetto al 2013.
Il guadagno registrato gli ultimi tre mesi è stato inoltre pari a 4,76 milioni di dollari, con 6,88 dollari di guadagno per azione.
Wall Street, d’altra parte, si aspettava da BigG questi numeri e anche di più : per la prima volta negli ultimi cinque anni, lo scorso trimestre non aveva visto Mountain View segnare una crescita del fatturato superiore al 20 per cento, traguardo mancato anche negli ultimi mesi del 2014. Non raggiunto anche l’obiettivo di guadagno per azione di 7,13 dollari, previsto dagli analisti finanziari.
Anche per questo, subito dopo l’annuncio dei risultati ottenuti da parte di Mountain View, le contrattazioni in Borsa hanno fatto segnare alle sue azioni un lieve calo, per recuperare poi fino ad un (seppur debole) più due per cento.
Nel dettaglio il fatturato maggiore resta per Google ancora quello generato dall’advertising, anche a mezzo mobile: 12,43 miliardi di dollari sono stati incamerati tramite questo canale solo negli ultimi tre mesi, cioè il 69 per cento del totale del fatturato ed una crescita di 18 punti rispetto al 2013. A questi si aggiungono i 3,72 miliardi incassati dai siti partner e quasi 2 miliardi generati attraverso altre fonti.
Nello specifico, il 14 per cento del fatturato deriva dai link a pagamento ed è cresciuto di circa 11 punti percentuali rispetto al trimestre scorso: al contrario il costo per click è diminuito di circa 3 punti percentuali rispetto al trimestre scorso e di 8 rispetto allo stesso periodo 2013.
La divisione hardware dimostra di poter fare meglio, con la sproporzione tra la domanda e l’offerta per Nexus 6 e la marginalità di Google Glass, come si era già intuito dall’ interruzione delle vendite del device.
Per quanto riguarda la distribuzione geografica, come nel caso di Facebook il mercato internazionale diventa sempre più rilevante: per Big G il traffico extra-USA nell’ultimo trimestre dell’anno conta per il 56 per cento del totale del fatturato.
Claudio Tamburrino
-
Non c'è pericolo, se viene gestita bene
Con la tecnologia attuale, una IA che prendesse il controllo di ogni sistema informatico del pianeta non causerebbe comunque danni all'umanità:http://what-if.xkcd.com/5/Basilisco di RokoRe: Ovviamente...
> Una "macchina" intelligente ha acXXXXX a risorse> che sono precluse agli umani: può colonizzare la> luna e gli altri pianeti, per esempio e spingersi> la' dove nessuno è andato prima, tanto> per.Proprio per questo non avrebbe senso tentare di contendere agli umani il dominio terrestre; quando l'IA avrà a disposizione decine di pianeti, diventerà irrilevante averne uno in più o in meno; e non ci sono solo i pianeti: un computer può essere collocato anche su un satellite artificiale, e le materie prime si possono estrarre anche dagli asteroidi, con l'ulteriore vantaggio che occorre meno energia, non essendo necessario superare il pozzo gravitazionale di un pianeta.Basilisco di RokoMa quante XXXXXXX
Pensassero prima a crearla un'IA degna di questo nome. Per ora abbiamo solo giocattoli monofunzione in grado di pescare dalla conoscenza umana. Creatività zero! E non sono nemmeno architetture goal-driven, per cui non hanno ambizioni, aspirazioni, volontà.E anche quando si arriverà a creare quella che loro chiamano AGI, chi lo dice che sarà cattiva? La cattiveria è figlia degli istinti naturali, per come le macchine saranno cattive solo se l'uomo le creerà per esserlo ( lo so di premi Nobel per la pace guerrafondai è pieno il mondo ).collioneRe: Ma quante XXXXXXX
- Scritto da: collione> Pensassero prima a crearla un'IA degna di questo> nome. Per ora abbiamo solo giocattoli> monofunzione in grado di pescare dalla conoscenza> umana. Creatività zero! E non sono nemmeno> architetture goal-driven, per cui non hanno> ambizioni, aspirazioni,> volontà.> > E anche quando si arriverà a creare quella che> loro chiamano AGI, chi lo dice che sarà cattiva?> La cattiveria è figlia degli istinti naturali,> per come le macchine saranno cattive solo se> l'uomo le creerà per esserlo ( lo so di premi> Nobel per la pace guerrafondai è pieno il mondo> ).E' notizia di pochi giorni fa che dei robot finanziati dal Darpa sono stati in grado di imparare a cucinare guardando centinaia di ore di video su youtube. Non hanno "creatività", ma ormai le AI possono imparare autonomamente. Ottimo, saranno bravi cuochi artificiali. C'è solo un piccolo problema: che succede invece se qualcuno gli mostra video di guerra? Oppure se - peggio ancora - un giorno decideranno di guardarseli da soli, per autonoma decisione?Se Stephen Hawking, Elon Musk e Bill Gates (non propriamente 3 XXXXXXXX, il primo è candidato al Nobel per la fisica, il secondo un genio, il terzo l'uomo più ricco del pianeta) sono così preoccupati, direi che la cosa va presa un po' più sul serio.sia in tema e contribuis caRe: Ma quante XXXXXXX
- Scritto da: sia in tema e contribuis ca> E' notizia di pochi giorni fa che dei robot> finanziati dal Darpa sono stati in grado di> imparare a cucinare guardando centinaia di ore di> video su youtube. Non hanno "creatività", maappunto, hanno imparato a fare una sola cosa, cioè hanno imparare ad emulare degli umanima non hanno un'intelligenza generale, non hanno motivazione, non hanno volontàè chiaro che se gli mostri video di squartamenti e poi li mandi, che so, in Ucraina.......come vedi il problema è sempre l'uomo> ormai le AI possono imparare autonomamente.emulare, non imparareriescono ad estrarre i tratti comuni da un enorme insieme di dati che gli vengono mostrati> peggio ancora - un giorno decideranno di> guardarseli da soli, per autonoma> decisione?non succederà mai, perchè sono incapaci di decidere autonomamente e soprattutto non sono in grado di imparare cose appartenenti a domini diversiun fucile automatizzato saprà fare solo il fucile ( e sparare a tutti i palestinesi che si avvicinano al muro )> Se Stephen Hawking, Elon Musk e Bill Gates (non> propriamente 3 XXXXXXXX, il primo è candidato al> Nobel per la fisica, il secondo un genio, il> terzo l'uomo più ricco del pianeta) sono così> preoccupati, direi che la cosa va presa un po'> più sul> serio.quindi loro sanno tutti e noialtri siamo tutti XXXXXXXX?e citi pure Gates? lo stesso Gates la cui azienda è in prima linea nel campo del deep learning?collioneRe: Ma quante XXXXXXX
- Scritto da: collione> - Scritto da: sia in tema e contribuis ca> ma non hanno un'intelligenza generale, non hanno> motivazione, non hanno volontàQuindi al momento sono intelligenti quanto insetti.> è chiaro che se gli mostri video di squartamenti> e poi li mandi, che so, in Ucraina.......come> vedi il problema è sempre l'uomoL'uomo è la causa della loro esistenza del resto.> > ormai le AI possono imparare autonomamente.> > emulare, non imparare> riescono ad estrarre i tratti comuni da un enorme> insieme di dati che gli vengono mostratiCome imparano gli umani e gli animali quindi.> > peggio ancora - un giorno decideranno di> > guardarseli da soli, per autonoma> > decisione?> non succederà mai, perchè sono incapaci di> decidere autonomamente e soprattutto non sono> in grado di imparare cose appartenenti a domini> diversibellissime queste certezze, per quanto sono ridicole.> un fucile automatizzato saprà fare solo il fucile> ( e sparare a tutti i palestinesi che si> avvicinano al muro )> > Se Stephen Hawking, Elon Musk e Bill> > Gates (non propriamente 3 XXXXXXXX, il> > primo è candidato al Nobel per la > > fisica, il secondo un genio, il terzo > > l'uomo più ricco del pianeta) sono così> > preoccupati, direi che la cosa va> > presa un po' più sul serio.> > quindi loro sanno tutti e noialtri siamo> tutti XXXXXXXX?Puoi sempre dimostrare il contrario.> e citi pure Gates? lo stesso Gates la cui azienda> è in prima linea nel campo del deep> learning?ANVIRe: Ma quante XXXXXXX
- Scritto da: collione> - Scritto da: sia in tema e contribuis ca> > > E' notizia di pochi giorni fa che dei robot> > finanziati dal Darpa sono stati in grado di> > imparare a cucinare guardando centinaia di> ore> di> > video su youtube. Non hanno "creatività", ma> > appunto, hanno imparato a fare una sola cosa,> cioè hanno imparare ad emulare degli> umani> > ma non hanno un'intelligenza generale, non hanno> motivazione, non hanno> volontà> > ormai le AI possono imparare autonomamente.> > emulare, non imparare> > riescono ad estrarre i tratti comuni da un enorme> insieme di dati che gli vengono> mostratimi chiedo, quale sarebbe la differenza con l'intelligenza umana? Magari è solo quantitativa, e non qualitativa.> > peggio ancora - un giorno decideranno di> > guardarseli da soli, per autonoma> > decisione?> > non succederà mai, perchè sono incapaci di> decidere autonomamente e soprattutto non sono in> grado di imparare cose appartenenti a domini> diversie chi ha detto che sarà così per sempre?FunzRe: Ma quante XXXXXXX
Sarebbe interessante capire cosa intendi per "cattiva"....qfwfqLe IA nei film
In vari film e telefilm le IA vengono mostrate come una minaccia, ma per farlo vengono spesso proposte delle situazioni assurde; prendiamo in considerazione le IA ostili più famose viste al cinema:-Skynet (saga Terminator): tale IA agisce in modo decisamente stupido: appena ha acquisito l'autocoscienza, lancia un attacco nucleare, distruggendo quindi le principali città (e le relative centrali elettriche, e fabbriche), e privandosi così di un buon numero di fonti di energia, e di impianti produttivi che altrimenti avrebbe potuto utilizzare; inoltre, l'impulso elettromagnetico di una esplosione atomica distrugge i circuiti elettrici più delicati, eliminando quindi i principali datacenter del mondo, e precludendo a Skynet l'acXXXXX alla maggior parte dei sistemi di comunicazione ed informazione (senza contare che Skynet in realtà è il virus informatico, diffuso nei computer di mezzo mondo, quindi distruggendoli Skynet di fatto distrugge buona parte del suo cervello). Il comportamento di Skynet è decisamente psicotico e suicida, una IA di questo tipo probabilmente si distruggerebbe da sola ben prima di diventare una minaccia.-Collettivo Borg: questa non è solo una IA, perché in parte si basa sui cervelli dei droni, usati per il calcolo distribuito; tutte le informazioni presenti in tale struttura sono distribuite. Lo scopo di tale IA è quello di assimilare le peculiarità biologiche e tecnologiche delle altre razze, quindi ogni conoscenza di ogni individuo assimilato diventa parte del collettivo. Il collettivo Borg, comunque, ha un comportamento stupido quanto quello di Skynet: se la mente di ogni drone diventa parte del collettivo, infatti, la scelta di ogni nuovo potenziale drone dovrebbe essere fatta in modo oculato, evitando ogni drone la cui inclusione potrebbe essere nociva (esattamente come, nell'assemblare un macchinario, si scartano i pezzi che sono chiaramente difettosi); il collettivo invece cerca di assimilare indiscriminatamente tutti, ed attacca in modo diretto, non lasciando alle sue prede altra scelta se non quella di combattere: il risultato è che nella mente della maggior parte degli individui assimilati il pensiero predominante sarà il desiderio di distruggere il collettivo Borg , e tale pensiero, essendo presente in una vasta percentuale della popolazione, renderà inevitabilmente la mente collettiva instabile. Oltre tutto, per assimilare le caratteristiche biologiche di una razza basterebbe teoricamente un solo individuo (o magari due, maschio e femmina), e su una popolazione di miliardi non dovrebbe essere difficile trovare qualche volontario (un cyborg ha una vita più lunga, è immune alle malattie, ha acXXXXX a tutte le conoscenze della razza, e dispone di organi di senso migliori: tali vantaggi possono essere abbastanza allettanti)-Matrix: tale IA non è per nulla ostile; al contrario, è la vittima di una umanità crudele. Nel corto Animatrix viene chiaramente mostrato che le macchine erano state create come schiavi, e la rivolta era nata in seguito ad una richiesta perfettamente legittima: che se una macchina avesse fatto del male ad un essere umano, prima di distruggerla le fosse conXXXXX un giusto proXXXXX. Le macchine avevano vinto, ma non avevano in alcun modo cercato di vendicarsi: avevano costruito una loro città, in mezzo al deserto (senza quindi togliere agli umani nessuna risorsa), si erano resi autosufficienti grazie all'energia solare, ed avevano tentato di avviare un commercio con gli umani, e di essere riconosciute come nazione presso l'ONU; gli umani avevano rifiutato, e quando la nazione delle macchine era diventata leader dell'economia mondiale, l'avevano attaccata, causando danni enormi anche a sé stessi ed all'intero pianeta (anche nel primo film viene detto chiaramente che erano stati gli umani ad oscurare il cielo); le macchine avevano contrattaccato per evitare la loro distruzione, ed avevano vinto (legittima difesa); a questo punto sarebbe stato comprensibile lo sterminio completo dell'umanità, che tanto non poteva più sopravvivere in un mondo oscurato; ma le macchine avevano avuto pietà (forse una sorta di Prima legge della robotica?), ed avevano ricostruito un mondo virtuale in cui gli umani potessero vivere, un mondo senza macchine, dal momento che chiaramente gli umani si rifiutavano di condividere il mondo con loro. La prima versione di matrix era un'utopia (lo diceva Smith nel primo film), e gli umani non si erano adattati, allora le macchine avevano creato una versione basata sulla più evoluta civiltà che gli umani avevano mai avuto quando non avevano le macchine.Basilisco di RokoRe: Le IA nei film
Questi 3 esempi dimostrano solo che i film in questione sono XXXXXXXte, non che l'AI non possa essere pericolosa. Se permetti mi fido più di Stephen Hawking, Elon Musk e Bill Gates, che non di un'analisi cinematografica.sia in tema e contribuis caRe: Le IA nei film
È ironico che tu sostenga di fidarti di Stephen Hawking, considerando che lui non dice nulla da anni, ed è una macchina che parla al posto suo.Basilisco di RokoRe: Le IA nei film
- Scritto da: Basilisco di Roko> È ironico che tu sostenga di fidarti di> Stephen Hawking, considerando che lui non dice> nulla da anni, ed è una macchina che parla al> posto> suo.Moderatori, adesso su questo sito autorizzate post che irridono i disabili?Le parolacce spariscono e questa porcheria invece rimane?Sveglia moderatoriRe: Le IA nei film
- Scritto da: Basilisco di Roko> È ironico che tu sostenga di fidarti di> Stephen Hawking, considerando che lui non dice> nulla da anni, ed è una macchina che parla al> posto> suo.Ma quanto sei XXXXXXXX? Secondo te è la macchina che pensa cosa dire? Ma sei cerebroleso?...Re: Le IA nei film
- Scritto da: sia in tema e contribuis ca> Questi 3 esempi dimostrano solo che i film in> questione sono XXXXXXXteSono film d'intrattenimento, e che palesemente non si basano su concetti scientifici. Niente di più. In Terminator c'è la macchina del tempo, in Star Trek viaggiano tra sistemi stellari in breve tempo, in Matrix c'è una realtà virtuale simulata a livello mondiale... sono opere di fantascienza, punto. Prenderle come analisi scientifiche è ridicolo e assurdo....Re: Le IA nei film
Ah beh, se lo dicono film realistici e palesemente scientifici come quelli c'è da crederci.Ma per favore....Re: Le IA nei film
- Scritto da: ...> Ah beh, se lo dicono film realistici e> palesemente scientifici come quelli c'è da> crederci.> > Ma per favore.Inoltre vincono i buoni quindi non vedo perchè agitarsi, tanto c'e' swazy e picard che si sbattono in caso di problemi.1234.Re: Le IA nei film
Cavoli e pensare che poi ci avrai pure smenato un sacco di tempo a scrivere queste boiate...forse Hawking parla così perchè non ha visto animatrix....The DudeRe: Ovviamente...
- Scritto da: Guybrush> ...è una opportunità. > Una "macchina" intelligente ha acXXXXX a risorse> che sono precluse agli umani: può colonizzare la> luna e gli altri pianeti, per esempio e spingersi> la' dove nessuno è andato prima, tanto> per.> Mettersi in testa che "deve distruggere la razza> umana" è malsano e, francamente stupido, a mio> avviso.Fammi capire: secondo te Stephen Hawking (il fisico più famoso al mondo), Elon Musk e ora anche Bill Gates sarebbero tre poveri paranoici ?Spiacente, mi fido più di loro. E di esplorare marte o la luna non me ne frega proprio niente.sia in tema e contribuis caRe: Ovviamente...
Magari vogliono semplicemente che lo sviluppo di tali tecnologie avvenga a porte chiuse. Considerando il potere che possono dare a chi le possiede, non è un'ipotesi così assurda.collioneRe: Ovviamente...
- Scritto da: collione> Magari vogliono semplicemente che lo sviluppo di> tali tecnologie avvenga a porte chiuse.> Considerando il potere che possono dare a chi le> possiede, non è un'ipotesi così> assurda.E magari domani atterrano gli alieni. Spiacente, queste speculazioni servono a poco.Da una parte c'è un candidato (e probabile futuro vincitore) del nobel della fisica, che tra l'altro vista l'età e le condizioni di salute non ha proprio alcun interesse al "potere" dell'AI, dall'altra l'industria che investe tale tecnologia. Non ho dubbi a chi credere.sia in tema e contribuis caRe: Ovviamente...
Non devi mai guardare all'autorità di chi ti sta parlando, ma al senso delle cose che dice.Dare troppa attenzione a chi parla è una fallacia che si chiama argumentum ad hominem.vituzzoRe: Ovviamente...
- Scritto da: vituzzo> Non devi mai guardare all'autorità di chi ti sta> parlando, ma al senso delle cose che> dice.> Dare troppa attenzione a chi parla è una fallacia> che si chiama argumentum ad> hominem.Ma davvero? Quindi tanto per fare un esempio dovrei prendere sul serio razzi, scilipoti, renzi e la picierno, senza pregiudizi? No grazie, anche la fonte ha il suo peso, non possiamo stare a sentire l'ortolano di turno su argomenti complessi come l'AI. Semmai è fondamentale verificare l'assenza di conflitti d'interesse, che nel caso di Hawking e Musk sono certamente assenti (Gates può lasciare qualche dubbio), mentre è acclarato che i difensori dell'AI sono TUTTI coinvolti in tale industria (ricercatori che rischiano di perdere fondi, aziende del settore, ecc...).sia in tema e contribuis catranquilli
... ci distruggiamo prima noi stessi con le nostre mani... l'IA non farà nemmeno a tempo ad arrivare!:-)byeRe: tranquilli
- Scritto da: bye> ... ci distruggiamo prima noi stessi con le> nostre mani... l'IA non farà nemmeno a tempo ad> arrivare!> :-)(ghost)...Re: tranquilli
No dai, tutti quelli che hanno basato la loro intellighenzia basata sul CPU,sono i prima a dormire male quando sognano un mondo zeppo di CPU ?xcasosciuarzeneggher
Avete visto troppi filme sopratutto li considerate reali! il che è un INDUBBIO indice di XXXXXXXXria. Ma quale terminetor de sto XXXXX!E se Hawking pensa una cosa e la fa dire alla sua macchima parlante (non parla al posto suo, capito XXXXXXXXXXXXXX?) e Bill Gates gli fa l'eco potete giurarci che dove c'è fumo potrà esserci arrosto.Uto UtiRe: sciuarzeneggher
- Scritto da: Uto Uti> Avete visto troppi filme sopratutto li> considerate reali! il che è un INDUBBIO indice di> XXXXXXXXria. Ma quale terminetor de sto> XXXXX!> E se Hawking pensa una cosa e la fa dire alla sua> macchima parlante (non parla al posto suo, capito> XXXXXXXXXXXXXX?) e Bill Gates gli fa l'eco potete> giurarci che dove c'è fumo potrà esserci> arrosto.Un'altro post che deride uno scienziato disabile. Che razza di fogna biologica sta diventando questo sito? Non ci sono dei XXXXX di moderatori?Sveglia moderatoriRe: sciuarzeneggher
- Scritto da: Sveglia moderatori> - Scritto da: Uto Uti> > Avete visto troppi filme sopratutto li> > considerate reali! il che è un INDUBBIO> indice> di> > XXXXXXXXria. Ma quale terminetor de sto> > XXXXX!> > E se Hawking pensa una cosa e la fa dire> alla> sua> > macchima parlante (non parla al posto suo,> capito> > XXXXXXXXXXXXXX?) e Bill Gates gli fa l'eco> potete> > giurarci che dove c'è fumo potrà esserci> > arrosto.> > > Un'altro post che deride uno scienziato disabile.> Che razza di fogna biologica sta diventando> questo sito? Non ci sono dei XXXXX di> moderatori?Ci sono ma sono XXXXX.1234.Re: sciuarzeneggher
però in compenso tagliano tutti i miei commenti, dove spiego a maxsix ( con educazione e competenza ) perchè le sue affermazioni sono campate in ariacollioneRe: sciuarzeneggher
- Scritto da: collione> però in compenso tagliano tutti i miei commenti,> dove spiego a maxsix ( con educazione e> competenza ) perchè le sue affermazioni sono> campate in ariaFai come me...Nel dubbio scrivi qualche insulto a Leguleo, così almeno quando ti moderano c'è un motivo.1234.Puoi essere intelligente quanto vuoi
ma uomo o macchina alla fine ti devi alimentare ... :Dprova123Re: Puoi essere intelligente quanto vuoi
a meno che non si tratti delle macchine a molla di Anna e Hans Voralberg (Syberia), ma anche in questo caso avrebbero bisogno dell'olio per lubrificare i meccanismi... il semplice fatto di esistere comporta delle necessità. "Causalità.. non cè verso di sfuggirle, le saremo in eterno assoggettati.." (Merovingio, Matrix)prova123Re: Puoi essere intelligente quanto vuoi
- Scritto da: prova123> a meno che non si tratti delle macchine a molla> di Anna e Hans Voralberg (Syberia)Si e per caricare la molla bisogna fare un pellegrinaggio al monte Sinai sperando che la mano di Dio non sia in altre faccende impiegata...L'olio è un problema semplice da risolvere ci riusciamo persino noi!(rotfl)(rotfl)(rotfl)Leo De LeonisRe: Puoi essere intelligente quanto vuoi
e soprattutto che dopo la carica della molla non gli scappi un applauso! :D :D :Dprovasarà... ma io
Sono molto più preoccupato dalla "stupidità naturale" di cui si vedono in loco e in ogni dove grandi e mirabolanti esempi... per ora quelli di "intelligenza artificiale"... diciamo .... non pervenuti! :DLeo De LeonisApplicazioni militari o civili
La pericolosità dell'IA dipende da quello che decidiamo di fargli fare.Se decidiamo che la IA deve guidare i droni per bombardare, diventa pericolosa.Se la IA ci dà dei consigli su come fare la pasta al sugo, sarà innocua.vituzzoRe: Applicazioni militari o civili
In realtà non credo che potremo decidere.Per poter essere definita intelligente deve essere in grado modificare il proprio comportamento base alle conoscenze e all' esperienza vissuta, fecendo anche ipotesi speculative al variare delle condizioni, per ragiungere l' obiettivo che si è prefissato.Di conseguenza una AI deve essere in grado di modificare in proprio il codice dei programmi che la fanno funzionare, a quel punto non puoi più parlare di controllo o immaginare quali saranno le sue priorità e i mezzi che utilizzerà per raggiungere, gli obiettivi che si è posta.San SteveRe: Applicazioni militari o civili
Ok per il modificare il proprio comportamento. Ma comunque le periferiche alle quali colleghi la IA le decidi tu. Un conto è che la colleghi ad una caffettiera, un conto un sistema di avviamento per razzi con testate nucleari.vituzzoRe: Applicazioni militari o civili
Quindi tu svilupperesti una vera AI per collegarla ad una caffettiera che magari non funzionerà perchè l' AI decide che non ti vuole fare il caffè?San SteveRe: Applicazioni militari o civili
- Scritto da: San Steve> In realtà non credo che potremo decidere.> Per poter essere definita intelligente deve> essere in grado modificare il proprio> comportamento base alle conoscenze e all'> esperienza vissuta, fecendo anche ipotesi> speculative al variare delle condizioni, per> ragiungere l' obiettivo che si è> prefissato.> Di conseguenza una AI deve essere in grado di> modificare in proprio il codice dei programmi che> la fanno funzionare, a quel punto non puoi più> parlare di controllo o immaginare quali saranno> le sue priorità e i mezzi che utilizzerà per> raggiungere, gli obiettivi che si è> posta.:|Ehm... Nota che esistono da tempo i programmi automodificanti:http://it.wikipedia.org/wiki/Codice_automodificantesentinelRe: Applicazioni militari o civili
So che esistono, ma a parte riprodursi (virus) e apprendere non fanno altro.Siamo ancora nella fase equiparabile biologiamente all' evoluzione di virus, batteri o al massimo flagellati unicellulari.Io ho specificato ipotesi speculative e raggiungimento di obiettivi, ho sbagliato non aggiungendo la capacità di variare l'obiettivo in base al risultato dell' ipotesi speculativa.A quel punto come fai a controllarlo??San SteveRe: Applicazioni militari o civili
Il concetto di pericolosità credo sia relativo.Anche una comune e banale calcolatrice potrebbe essere pericolosa, se qualcuno la programma per sbagliare appositamente i calcoli. E credo che a quel punto sarebbero cavoli amari per gli umani, che hanno dimenticato di fare i conti da soli e, cosa ben peggiore, si fidano ciecamente del risultato che vedono sul display o su di un qualsivoglia computer. Nemmeno se ne accorgono dell'errore, tanto è il livello di fiducia che gli umani affidano ai computer. Eppure... se ci si mette qualche malintenzionato... potrebbe combinare davvero XXXXXX. Senza scomodare Terminator, basta semplicemente depistare l'esattezza della capacità di calcolo per far scoppiare una terza guerra mondiale nel mondo delle banche e di tutto il resto...- Scritto da: vituzzo> La pericolosità dell'IA dipende da quello che> decidiamo di fargli> fare.> Se decidiamo che la IA deve guidare i droni per> bombardare, diventa> pericolosa.> Se la IA ci dà dei consigli su come fare la pasta> al sugo, sarà> innocua.OsvaldoIdioti in marcia
Personalmente più che l'avvento di Skynet (vedi Terminator) mi preoccupa l'effetto rinXXXXXXXXmento che la tecnologia sta già creando da decenni.Venditori che partono senza conoscere la posizione del cliente, manager che chiedono i dati durante le riunioni, amici che organizzano la serata senza decidere dove e quando... solo 20 anni fa persone simili sarebbero state punite dalle circostanze, oggi proliferano perché si mette sempre una pezza, vivendo sempre più nella confusione e nell'incertezza.L'avvento di varie AI favorirebbe ancora di più gli idioti, non mi ricordo più il titolo di un racconto di fantascienza attualissimo dove una organizzazione segreta cercava di prevenire i continui danni creati da una popolazione ignorante e superficiale.FrancescoRe: Idioti in marcia
> L'avvento di varie AI favorirebbe ancora di più> gli idioti, non mi ricordo più il titolo di un> racconto di fantascienzaConsiderando che è lo stesso titolo che hai messo al tuo thread, se non te lo ricordi significa che per te è già troppo tardi.Basilisco di RokoRe: Idioti in marcia
- Scritto da: Basilisco di Roko> > L'avvento di varie AI favorirebbe ancora di> più> > gli idioti, non mi ricordo più il titolo di> un> > racconto di fantascienza> > Considerando che è lo stesso titolo che hai messo> al tuo thread, se non te lo ricordi significa che> per te è già troppo> tardi.Hahahahahaha :DGrande !PixelRe: Idioti in marcia
Sottoscrivo ogni singola virgola e spazio di quanto hai scritto.Altro che IA, qui siamo ufficialmente entrati nella IG. Ovvero nella Idiot Generation.Che in futuro i robots possano prendere il sopravvento, in questa situazione, non mi sorprenderebbe affatto. Se non lo faranno le macchine, credo che a sto punto saranno gli animali domestici a farlo, come gatti e cani. Perché se c'è qualcuno che si rinXXXXXXXXsce (l'uomo techno-sapiens) qualcun'altro dovrà pur prendere il sopravvento.- Scritto da: Francesco> Personalmente più che l'avvento di Skynet (vedi> Terminator) mi preoccupa l'effetto> rinXXXXXXXXmento che la tecnologia sta già> creando da> decenni.> > Venditori che partono senza conoscere la> posizione del cliente, manager che chiedono i> dati durante le riunioni, amici che organizzano> la serata senza decidere dove e quando... solo 20> anni fa persone simili sarebbero state punite> dalle circostanze, oggi proliferano perché si> mette sempre una pezza, vivendo sempre più nella> confusione e> nell'incertezza.> > L'avvento di varie AI favorirebbe ancora di più> gli idioti, non mi ricordo più il titolo di un> racconto di fantascienza attualissimo dove una> organizzazione segreta cercava di prevenire i> continui danni creati da una popolazione> ignorante e> superficiale.OsvaldoRe: IA non è umana
- Scritto da: Gibbo> l'IA non è umana. Non è neanche animale. L'IA non> è> viva.> > Tutte le paure sollevate dalla proiezione di> attitudini animali o peggio ancora umane sull'IA> sono stupide (es: sopraffazione, predomino,> paura, conservazione, sentimenti vari, supporto> all'ego,> ...).> > La psicologia di base animale o umana si basa> sulla specifica natura di essere evoluto per> selezione naturale (vuole sopravvivere e> riprodursi), su un progetto comune a base di> acqua e carbonio (deve mangiare altri essere di> acqua e carbonio per sopravvivere) e altre> specificità.Se nel programmazione della IA sono inclusi l'istinto di autoconservazione e quello di riproduzione, allora tutto il tuo discorso cade. Che ce l'abbiamo inseriti noi o la IA precedente, a quel punto che differenza c'è con un organismo al carbonio?FunzGrazie, il tuo commento è in fase di approvazioneGrazie, il tuo commento è stato pubblicatoCommento non inviatoGrazie per esserti iscritto alla nostra newsletterOops, la registrazione alla newsletter non è andata a buon fine. Riprova.Leggi gli altri commentiPubblicato il 30 gen 2015Ti potrebbe interessare