Linus Torvalds è uno che usa parolacce e turpiloquio con una certa disinvoltura, e questo è un fatto acclarato dopo gli insulti pubblici contro NVIDIA e le note sfuriate contro gli sviluppatori sulla mailing list ufficiale di Linux. Ma proprio su detta mailing list c’è ora qualcuno che mette in discussione questo comportamento, parlando di violenza verbale in nessun caso giustificabile.
A scatenare la querelle è stata Sarah Sharp, sviluppatrice Linux impiegata presso Intel che si è pubblicamente lamentata dello stato di cose con il turpiloquio di Torvalds: le parolacce non sono necessarie per migliorare il codice, sostiene Sharp, e la violenza non è accettabile sia che si tratti di intimidazione fisica o di “abuso e minacce verbali”. La mailing list del Pinguino deve essere professionale, dice la sviluppatrice, e lei non ha intenzione di continuare a giocare il ruolo di “ragazza simpatica” mentre il maintainer del progetto Linux urla e insulta – dietro a uno schermo – tutti quelli che non gli vanno a genio.
La risposta di Torvalds, neanche a dirlo, non è affatto accomodante: lo sviluppatore finlandese non ha alcuna intenzione di comportarsi in maniera “professionale”, perché a suo dire il tipo di professionalità invocato da Sharp è ipocrisia di facciata tipica dei politici corrotti, dei passivi aggressivi e dei bugiardi.
Essere “politicamente scorretto” fa parte del suo modo di essere, dice Torvalds, ed è a suo dire un modo positivo di sfogare la tensione senza accumularla anche se questo modo di comportarsi non piace a tutti. La “sensibilità culturale” del fondatore di Linux prevede il turpiloquio, oltre alla franchezza, e Torvalds chiede infine a Sharp di rispettare questa sensibilità.
L’elogio del turpiloquio abbozzato da Torvalds non piacerà a quanti invocano un dibattito sul suo modo di agire, ma alla fine è lui che comanda e decide su quale sia l’approccio migliore alla gestione del popolare kernel open source.
Torvalds decide, e nel mondo FOSS le sue decisioni sono legge anche quando si tratta di omaggiare un vecchio ambiente operativo di Microsoft con la release di Linux 3.11: la futura versione di Linux sarà nota anche come “Linux for Workgroups”, nome in codice che va ad arricchire il già variopinto bestiario delle precedenti release del Pinguino.
Il riferimento è naturalmente a Windows for Workgroups 3.11, arcaico ma durevole ambiente operativo della metà degli anni ’90 – da installare e far girare su sistema operativo MS-DOS – che in anticipo sulle future generazioni di OS Windows (Windows NT per workstation e Windows 95 per utenti consumer) implementò il supporto nativo al networking su protocollo TCP/IP.
Nome in codice a parte, le novità che Torvalds prevede di integrare in “Linux for Workgroups 3.11” includono il supporto alle nuove modalità di gestione energetica delle GPU Radeon, il supporto della virtualizzazione KVM e Xen su processori ARM a 64 bit e altro ancora.
Alfonso Maruccia
-
"appena" 4 anni ???!!!
Se penso alle aspettative degli anni '80 riguardo all'AI (ad esempio il progetto giapponese "quinta generazione") e al brusco ridimensionamento delle stesse viste le enormi difficoltà, direi che i risultati odierni sono certamente sorprendenti, ma in senso positivo !ropelRe: "appena" 4 anni ???!!!
non è questione di ridimensionamento, ma di approccio sbagliatonegli anni '80 hanno buttato alle ortiche le reti neurali, credendo che sarebbero bastati algoritmi di ricerca + hardware sempre più potente, per risolvere tutti i problemi dell'IAsi sono accorti che ci vogliono metodi "smart" invece di quelli brute forceil nuovo corso dell'IA sono le reti neural deep belief e i risultati si stanno già vedendocollioneRe: "appena" 4 anni ???!!!
Certo, putroppo Minsky ha avuto la sua parte in quella sceltaropeldiciamo paragonabile
all'intelligenza del winaro medio :D "non sono capaci di elaborare gli elementi provenienti dall'esterno per prendere decisioni consapevoli" infatti si cuccano il piastrellotto preinstallatobertucciaRe: diciamo paragonabile
- Scritto da: bertuccia> all'intelligenza del winaro medio :D> > "non sono capaci di elaborare gli elementi> provenienti dall'esterno per prendere decisioni> consapevoli" > > infatti si cuccano il piastrellotto preinstallatose studiate un po' voi macachi riuscite forse, a raggiungerci :DastroRe: diciamo paragonabile
- Scritto da: astro> > se studiate un po' voi macachi riuscite forse, a> raggiungerci :Dognuno ha quel che si merita...a voi PiasterllOtto, a noi Otto the Automator![img]http://i.imgur.com/HTdTB1z.png[/img]bertucciaRe: diciamo paragonabile
- Scritto da: bertuccia> all'intelligenza del winaro medio :D> > "non sono capaci di elaborare gli elementi> provenienti dall'esterno per prendere decisioni> consapevoli" > > infatti si cuccano il piastrellotto preinstallato1/10ndr4 anni
a 4 anni i bimbi non san risponder a domande precise o elaborar elementi esterni ? ma perfore ...MZorzy4 anni
Se avessero acquistato questa macchina, invece degli F35, a quest'ora in parlamento avremmo sicuramente discorsi e soprattutto proposte di legge più sensate ed intelligenti...mix99Re: 4 anni
- Scritto da: mosfet> - Scritto da: mix99> > Se avessero acquistato questa macchina,> invece> > degli F35, a quest'ora in parlamento avremmo> > sicuramente discorsi e soprattutto proposte> di> > legge più sensate ed> > intelligenti...> > Spesso si dimentica che noi non siamo solo mente> ma anche> corpo.non c'è dubbio, i leghisti, in particolare, comunicano solo col corpo :DcollioneDifficoltà delle AI
Il proXXXXX di apprendimento umano si basa sull'immersione totale nel contesto di cui si devono apprendere i principi. Una macchina avrà grosse difficoltà a replicare il suddetto proXXXXX di apprendimento, fino a quando non verrà dotato di meccanismi di interazione input/output che gli permettano di "vivere" il contesto in modo analogo a quello permesso agli umani. Stringendo, senza sensori e attuatori (sensi e mobilità) analoghi a quelli umani, credo che sussistano grosse difficoltà nel far progredire le AI per come le immaginiamo noi. Diverso sarebbe il discorso di sviuppare AI efficienti in contesti diversi dal nostro come il web o realtà virtuali. Da questo punto di vista credo che l'obiettivo sia più semplice.nexRe: Difficoltà delle AI
non ce lo vedo il problema, a meno di non voler creare un'AI addestrata a la maniera umanal'intelligenza è intelligenza, indipendentemente dal contesto in cui si è sviluppata e/o dagli strumenti di i/o usati ( a patto che forniscano il minimo di informazioni necessarie allo sviluppo dell'intelligenza stessa )la teoria che hai espresso è la stessa su cui si è basato il lavoro di Brooks al MIT, ovvero una mente umana può nascere solo in un corpo umanoperò quel livello d'intelligenza non è detto che possa albergare solo in una mente umana!!l'errore che è stato fatto, fino ad oggi, è di guardare ai componenti dell'intelligenza separatamente, senza creare un framework teorico che abbracci la totalità del problemacosì sono nati algoritmi, sistemi fuzzy, esperti, reti neurali per l'elaborazione delle immagini oppure del suono oppure per le decisioni finanziarie, ecc....ma nessun sistema ha mai affrontato il problema nella sua totalitàun'IA può apprendere pure su internet, tanto ci sono miliardi di documenti, contenenti fatti, eventi, connessioni logiche, semantiche, ecc...collioneRe: Difficoltà delle AI
Ciao, scusami sembra che oggi di perseguito, risondendo ai tuoi post ma è solo un caso.- Scritto da: collione> l'errore che è stato fatto, fino ad oggi, è di> guardare ai componenti dell'intelligenza> separatamente, senza creare un framework teorico> che abbracci la totalità del> problema> ma nessun sistema ha mai affrontato il problema> nella sua> totalitàEsatto. concordo!Anche io credo che l'approccio sia sbagliato.Finchè non si "comprende" che ciò che ha portato alla nostra intelligenza sono gli istinti dubito che si avranno risultati apprezzabili.Si potrebbe iniziare con l'istinto più forte e primordiale: la sopravvivenza.Se si vuole creare un'intelligenza artificiale il primo passo è dargli come unico primo e imprescindibile obbiettivo quello di sopravvivere... di vincere.Poi con l'affinamento delle tecniche di programmazione si può pensare ad una sua evoluzione. Ma l'indipendenza logico (il concetto alla base dell'IA) deve essere quella di non perdere.Dicono "pari ad un bambino di 4 anni" io ne dubito.Repoto più intelligente un bot che mi batte ad uno strategico e cuno che mi sa dire perchè "volano gli uccelli"Eppure anche i fervidi srittore di fantascienza hanno ipotizzato che le macchine sviluppino una loro IA indipendente al pericolo di essere "smantellate".Evidente crearlo (si parla pur sempre del MIT) è più difficile che intuirlo (e probabilmente la distanza è di molti gradi)PhronesisRe: Difficoltà delle AI
Ritengo che l'istinto principale dell'uomo non sia la sopravvivenza dell'individuo ma la sopravvivenza (o meglio: l'evoluzione) della specie. L'istinto di sopravvivenza dell'individuo è solo una conseguenza di quello specifico anche se a volte prende il sopravvento in soggetti predisposti. La suddetta spinta specifica si può concretizzare in particolari comportamenti evidenti, ma più spesso è un proXXXXX a lungo termine che non sempre lascia emergere la reale direzione. D'altronde, una specie senza questo tipo di "protezione", non avrebbe la possibilità di sopravvivere a lungo e verrebbe selezionata rapidamente. Se isolato, l'uomo pone la propria salvezza di fronte a tutto, ma inserito in un contesto di gruppo coeso, subentrano equilibri che lo portano a valorizzare maggiormente comportamenti che preservino il gruppo. L'esempio principale è la famiglia (tra l'altro, incarnato principe della prosecuzione della specie), ma lo stesso atteggiamento si può ritrovare in gruppi particolarmente affiatati o contesti di tensione emotiva (come in battaglia).Rientrando nell'argomento di discussione...Tolto che, credo sia auspicabile tenere lontano dalle macchine il più possibile qualsiasi istinto di sopravvivenza (di cui noi saremmo i primi a fare le spese), come può una AI sviluppare una intelligenza simile alla nostra quando mancano presupposti come quelli descritti e in particolare mancano le relazioni di gruppo con individui della stessa specie?Ritengo che la chiave dello sviluppo dell'intelligenza (sempre intesa come la conosciamo noi) risieda nell'evoluzione. E' attraverso un'evoluzione "spontanea" (in un contesto di molte generazioni secondo gli stessi criteri umani), che può crescere una intelligenza adatta a vivere quel contesto. E' la selezione naturale (che principalmente seleziona i caratteri più idonei attraverso la selezione degli individui) la via da perseguire, a mio avviso.Le difficoltà che stiamo riscontrando, derivano dal fatto di voler saltare le tappe. Stiamo cercando di ottenere il risultato di miglioni di anni di evoluzione, producendone direttamente la conclusione. Non è impossibile, ma lo ritengo molto complicato.Scusate se mi sono dilungato un po' ma è un argomento che mi ha sempre appassionato.nexRe: Difficoltà delle AI
- Scritto da: Phronesis> Finchè non si "comprende" che ciò che ha portato> alla nostra intelligenza sono gli istinti dubito> che si avranno risultati> apprezzabili.ecco, questo è un fatto importanteun'IA deve avere come elemento fondamentale la spinta ad agire, a muoversi, a produrre un output ( o come altro lo si vuole dire )e cosa dovrebbe spingerla? negli animali è l'istinto, quindi ci vuole una forma d'istinto pure nelle macchine> Si potrebbe iniziare con l'istinto più forte e> primordiale: la> sopravvivenza.Kevin Warwick fece esperimenti in questa direzione e creò dei robottini dal comportamento molto interessante> Dicono "pari ad un bambino di 4 anni" io ne> dubito.> Repoto più intelligente un bot che mi batte ad> uno strategico e cuno che mi sa dire perchè> "volano gli> uccelli"vabbè, ovviamente cercano di paragonare mele con arance, usando un metro di paragone prettamente umanostendiamo un velo pietoso> > Eppure anche i fervidi srittore di fantascienza> hanno ipotizzato che le macchine sviluppino una> loro IA indipendente al pericolo di essere> "smantellate".esatto, perchè altrimenti non c'è proprio attività "cerebrale", "manca la corrente" e dunque niente vitacollioneQuindi...
Quindi quando svilupperanno ConceptNet 18 questo avrà l'intelligenza di un ragazzo di 18 anni? beh, se ci mettono 14 anni per farlo mi sembra un traguardo notevole... Mi chiedo come faranno a risolvere i problemi più comuni, come il non prendere la macchina di Papà per andare a rimorchiare, bere, drogarsi, cattive frequentazioni e siti XXXXX.Giorgio Maria SantiniRe: Quindi...
- Scritto da: Giorgio Maria Santini> Quindi quando svilupperanno ConceptNet 18 questo> avrà l'intelligenza di un ragazzo di 18 anni?> beh, se ci mettono 14 anni per farlo mi sembra un> traguardo notevole...Da ConceptNet 4 a ConceptNet 18, 14 anni?Quindi se ci mettono 50 anni avremo un'IA con l'alzheimer :-DTuttoaSaldoRe: Quindi...
- Scritto da: Giorgio Maria Santini> Quindi quando svilupperanno ConceptNet 18 questo> avrà l'intelligenza di un ragazzo di 18 anni?> beh, se ci mettono 14 anni per farlo mi sembra un> traguardo notevole... Mi chiedo come faranno a> risolvere i problemi più comuni, come il non> prendere la macchina di Papà per andare a> rimorchiare, bere, drogarsi, cattive> frequentazioni e siti> XXXXX.Basterà evitare di dotare la AI di ormoni.Surak 2.04 anni
La mia nipotina di 3 anni è lei che fa le domande con i perché... E a tante ha già trovato la risposta... Non so che genere di bambini hanno gli americani...Emilie RollandinRe: 4 anni
Perché alla tua nipotina di 3 è già stata data una risposta, in un modo o nell'altro.Anche all'IA se metti nel codice una statement "IF (domanda == 'perchè gli uccelli volano?') print('perché hanno le ali');" è facile anche per l'IA.AntonyRe: 4 anni
- Scritto da: Antony> Perché alla tua nipotina di 3 è già stata data> una risposta, in un modo o> nell'altro.> Anche all'IA se metti nel codice una statement> "IF (domanda == 'perchè gli uccelli volano?')> print('perché hanno le ali');" è facile anche per> l'IA.E se vede una gallina va in blocco?Surak 2.0Re: 4 anni
occhio che si parla di mediaè ovvio che ci sono bambini molto più intelligenti della media ed è un fatto che, con l'andare delle generazioni, l'intelligenza media sia aumentata ( che poi viene distrutta dai media nel corso dell'adolescenza, è un altro discorso )collioneCi risiamo...
Io l'ho sempre detto che prima di studiarel'intelligenza artificiale l'uomo dovrebbestudiare la stupidità naturale.E comunque un bambino di 4 anni sa salire(ancorché a gattoni!) dei semplici scalini...http://www.youtube.com/watch?v=ASoCJTYgYB0-----------------------------------------------------------Modificato dall' autore il 17 luglio 2013 19.51-----------------------------------------------------------sentinelc'è dell'altro
senza offesa, ma questo articolo è piuttosto fuorviante. dà l'impressione che tutta la ricerca riguardo l'intelligenza artificiale si limiti a giocattolini del livello di conceptnet.tanto per restare in tema di MIT date un'occhiata a cosa fa genesis:http://groups.csail.mit.edu/genesis/se poi volete trovare ricerche ancor più sostanziose (otre che inquietanti, in alcuni casi), provate con siti governativi ad orientamento militare (DARPA, per restare in america).fermo restando che il livello della ricerca (in ogni campo) che viene reso noto al grande (si fa per dire) pubblico è quello di 5-10 anni fa.carllo seriintelligenza
Lintelligenza si manifesta spesso tramite processi ricorsivi, giochi, anche virtuali di specchi, mise en abyme. E i geni nella maturità tendono ad avere il volto somigliante. Cfr. book (amazon) di Ravecca Massimo. Tre uomini un volto: Gesù, Leonardo e Michelangelo.Massimo RaveccaRe: intelligenza
Questo è spam.CalibiGrazie, il tuo commento è in fase di approvazioneGrazie, il tuo commento è stato pubblicatoCommento non inviatoGrazie per esserti iscritto alla nostra newsletterOops, la registrazione alla newsletter non è andata a buon fine. Riprova.Leggi gli altri commentiPubblicato il 17 lug 2013Ti potrebbe interessare