Linux e le parolacce di Linus

Screzi sulla mailing list. Al centro della polemica la tendenza di Torvalds a usare il turpiloquio. Che chiude ogni polemica e affibbia un soprannome alla versione 3.11 del kernel

Roma – Linus Torvalds è uno che usa parolacce e turpiloquio con una certa disinvoltura, e questo è un fatto acclarato dopo gli insulti pubblici contro NVIDIA e le note sfuriate contro gli sviluppatori sulla mailing list ufficiale di Linux. Ma proprio su detta mailing list c’è ora qualcuno che mette in discussione questo comportamento, parlando di violenza verbale in nessun caso giustificabile.

linus torvalds A scatenare la querelle è stata Sarah Sharp, sviluppatrice Linux impiegata presso Intel che si è pubblicamente lamentata dello stato di cose con il turpiloquio di Torvalds: le parolacce non sono necessarie per migliorare il codice, sostiene Sharp, e la violenza non è accettabile sia che si tratti di intimidazione fisica o di “abuso e minacce verbali”. La mailing list del Pinguino deve essere professionale, dice la sviluppatrice, e lei non ha intenzione di continuare a giocare il ruolo di “ragazza simpatica” mentre il maintainer del progetto Linux urla e insulta – dietro a uno schermo – tutti quelli che non gli vanno a genio.

La risposta di Torvalds, neanche a dirlo, non è affatto accomodante: lo sviluppatore finlandese non ha alcuna intenzione di comportarsi in maniera “professionale”, perché a suo dire il tipo di professionalità invocato da Sharp è ipocrisia di facciata tipica dei politici corrotti, dei passivi aggressivi e dei bugiardi.

Essere “politicamente scorretto” fa parte del suo modo di essere, dice Torvalds, ed è a suo dire un modo positivo di sfogare la tensione senza accumularla anche se questo modo di comportarsi non piace a tutti. La “sensibilità culturale” del fondatore di Linux prevede il turpiloquio, oltre alla franchezza, e Torvalds chiede infine a Sharp di rispettare questa sensibilità.

L’elogio del turpiloquio abbozzato da Torvalds non piacerà a quanti invocano un dibattito sul suo modo di agire, ma alla fine è lui che comanda e decide su quale sia l’approccio migliore alla gestione del popolare kernel open source.

Torvalds decide, e nel mondo FOSS le sue decisioni sono legge anche quando si tratta di omaggiare un vecchio ambiente operativo di Microsoft con la release di Linux 3.11: la futura versione di Linux sarà nota anche come “Linux for Workgroups”, nome in codice che va ad arricchire il già variopinto bestiario delle precedenti release del Pinguino.

Il riferimento è naturalmente a Windows for Workgroups 3.11, arcaico ma durevole ambiente operativo della metà degli anni ’90 – da installare e far girare su sistema operativo MS-DOS – che in anticipo sulle future generazioni di OS Windows (Windows NT per workstation e Windows 95 per utenti consumer) implementò il supporto nativo al networking su protocollo TCP/IP.

Nome in codice a parte, le novità che Torvalds prevede di integrare in “Linux for Workgroups 3.11” includono il supporto alle nuove modalità di gestione energetica delle GPU Radeon, il supporto della virtualizzazione KVM e Xen su processori ARM a 64 bit e altro ancora.

Alfonso Maruccia

La tua email sarà utilizzata per comunicarti se qualcuno risponde al tuo commento e non sarà pubblicato. Dichiari di avere preso visione e di accettare quanto previsto dalla informativa privacy

  • Massimo Ravecca scrive:
    intelligenza
    Lintelligenza si manifesta spesso tramite processi ricorsivi, giochi, anche virtuali di specchi, mise en abyme. E i geni nella maturità tendono ad avere il volto somigliante. Cfr. book (amazon) di Ravecca Massimo. Tre uomini un volto: Gesù, Leonardo e Michelangelo.
  • carllo seri scrive:
    c'è dell'altro
    senza offesa, ma questo articolo è piuttosto fuorviante. dà l'impressione che tutta la ricerca riguardo l'intelligenza artificiale si limiti a giocattolini del livello di conceptnet.tanto per restare in tema di MIT date un'occhiata a cosa fa genesis:http://groups.csail.mit.edu/genesis/se poi volete trovare ricerche ancor più sostanziose (otre che inquietanti, in alcuni casi), provate con siti governativi ad orientamento militare (DARPA, per restare in america).fermo restando che il livello della ricerca (in ogni campo) che viene reso noto al grande (si fa per dire) pubblico è quello di 5-10 anni fa.
  • sentinel scrive:
    Ci risiamo...
    Io l'ho sempre detto che prima di studiarel'intelligenza artificiale l'uomo dovrebbestudiare la stupidità naturale.E comunque un bambino di 4 anni sa salire(ancorché a gattoni!) dei semplici scalini...http://www.youtube.com/watch?v=ASoCJTYgYB0-----------------------------------------------------------Modificato dall' autore il 17 luglio 2013 19.51-----------------------------------------------------------
  • Emilie Rollandin scrive:
    4 anni
    La mia nipotina di 3 anni è lei che fa le domande con i perché... E a tante ha già trovato la risposta... Non so che genere di bambini hanno gli americani...
    • Antony scrive:
      Re: 4 anni
      Perché alla tua nipotina di 3 è già stata data una risposta, in un modo o nell'altro.Anche all'IA se metti nel codice una statement "IF (domanda == 'perchè gli uccelli volano?') print('perché hanno le ali');" è facile anche per l'IA.
      • Surak 2.0 scrive:
        Re: 4 anni
        - Scritto da: Antony
        Perché alla tua nipotina di 3 è già stata data
        una risposta, in un modo o
        nell'altro.
        Anche all'IA se metti nel codice una statement
        "IF (domanda == 'perchè gli uccelli volano?')
        print('perché hanno le ali');" è facile anche per
        l'IA.E se vede una gallina va in blocco?
    • collione scrive:
      Re: 4 anni
      occhio che si parla di mediaè ovvio che ci sono bambini molto più intelligenti della media ed è un fatto che, con l'andare delle generazioni, l'intelligenza media sia aumentata ( che poi viene distrutta dai media nel corso dell'adolescenza, è un altro discorso )
  • Giorgio Maria Santini scrive:
    Quindi...
    Quindi quando svilupperanno ConceptNet 18 questo avrà l'intelligenza di un ragazzo di 18 anni? beh, se ci mettono 14 anni per farlo mi sembra un traguardo notevole... Mi chiedo come faranno a risolvere i problemi più comuni, come il non prendere la macchina di Papà per andare a rimorchiare, bere, drogarsi, cattive frequentazioni e siti XXXXX.
    • TuttoaSaldo scrive:
      Re: Quindi...
      - Scritto da: Giorgio Maria Santini
      Quindi quando svilupperanno ConceptNet 18 questo
      avrà l'intelligenza di un ragazzo di 18 anni?
      beh, se ci mettono 14 anni per farlo mi sembra un
      traguardo notevole...Da ConceptNet 4 a ConceptNet 18, 14 anni?Quindi se ci mettono 50 anni avremo un'IA con l'alzheimer :-D
    • Surak 2.0 scrive:
      Re: Quindi...
      - Scritto da: Giorgio Maria Santini
      Quindi quando svilupperanno ConceptNet 18 questo
      avrà l'intelligenza di un ragazzo di 18 anni?
      beh, se ci mettono 14 anni per farlo mi sembra un
      traguardo notevole... Mi chiedo come faranno a
      risolvere i problemi più comuni, come il non
      prendere la macchina di Papà per andare a
      rimorchiare, bere, drogarsi, cattive
      frequentazioni e siti
      XXXXX.Basterà evitare di dotare la AI di ormoni.
  • nex scrive:
    Difficoltà delle AI
    Il proXXXXX di apprendimento umano si basa sull'immersione totale nel contesto di cui si devono apprendere i principi. Una macchina avrà grosse difficoltà a replicare il suddetto proXXXXX di apprendimento, fino a quando non verrà dotato di meccanismi di interazione input/output che gli permettano di "vivere" il contesto in modo analogo a quello permesso agli umani. Stringendo, senza sensori e attuatori (sensi e mobilità) analoghi a quelli umani, credo che sussistano grosse difficoltà nel far progredire le AI per come le immaginiamo noi. Diverso sarebbe il discorso di sviuppare AI efficienti in contesti diversi dal nostro come il web o realtà virtuali. Da questo punto di vista credo che l'obiettivo sia più semplice.
    • collione scrive:
      Re: Difficoltà delle AI
      non ce lo vedo il problema, a meno di non voler creare un'AI addestrata a la maniera umanal'intelligenza è intelligenza, indipendentemente dal contesto in cui si è sviluppata e/o dagli strumenti di i/o usati ( a patto che forniscano il minimo di informazioni necessarie allo sviluppo dell'intelligenza stessa )la teoria che hai espresso è la stessa su cui si è basato il lavoro di Brooks al MIT, ovvero una mente umana può nascere solo in un corpo umanoperò quel livello d'intelligenza non è detto che possa albergare solo in una mente umana!!l'errore che è stato fatto, fino ad oggi, è di guardare ai componenti dell'intelligenza separatamente, senza creare un framework teorico che abbracci la totalità del problemacosì sono nati algoritmi, sistemi fuzzy, esperti, reti neurali per l'elaborazione delle immagini oppure del suono oppure per le decisioni finanziarie, ecc....ma nessun sistema ha mai affrontato il problema nella sua totalitàun'IA può apprendere pure su internet, tanto ci sono miliardi di documenti, contenenti fatti, eventi, connessioni logiche, semantiche, ecc...
      • Phronesis scrive:
        Re: Difficoltà delle AI
        Ciao, scusami sembra che oggi di perseguito, risondendo ai tuoi post ma è solo un caso.- Scritto da: collione
        l'errore che è stato fatto, fino ad oggi, è di
        guardare ai componenti dell'intelligenza
        separatamente, senza creare un framework teorico
        che abbracci la totalità del
        problema
        ma nessun sistema ha mai affrontato il problema
        nella sua
        totalitàEsatto. concordo!Anche io credo che l'approccio sia sbagliato.Finchè non si "comprende" che ciò che ha portato alla nostra intelligenza sono gli istinti dubito che si avranno risultati apprezzabili.Si potrebbe iniziare con l'istinto più forte e primordiale: la sopravvivenza.Se si vuole creare un'intelligenza artificiale il primo passo è dargli come unico primo e imprescindibile obbiettivo quello di sopravvivere... di vincere.Poi con l'affinamento delle tecniche di programmazione si può pensare ad una sua evoluzione. Ma l'indipendenza logico (il concetto alla base dell'IA) deve essere quella di non perdere.Dicono "pari ad un bambino di 4 anni" io ne dubito.Repoto più intelligente un bot che mi batte ad uno strategico e cuno che mi sa dire perchè "volano gli uccelli"Eppure anche i fervidi srittore di fantascienza hanno ipotizzato che le macchine sviluppino una loro IA indipendente al pericolo di essere "smantellate".Evidente crearlo (si parla pur sempre del MIT) è più difficile che intuirlo (e probabilmente la distanza è di molti gradi)
        • nex scrive:
          Re: Difficoltà delle AI
          Ritengo che l'istinto principale dell'uomo non sia la sopravvivenza dell'individuo ma la sopravvivenza (o meglio: l'evoluzione) della specie. L'istinto di sopravvivenza dell'individuo è solo una conseguenza di quello specifico anche se a volte prende il sopravvento in soggetti predisposti. La suddetta spinta specifica si può concretizzare in particolari comportamenti evidenti, ma più spesso è un proXXXXX a lungo termine che non sempre lascia emergere la reale direzione. D'altronde, una specie senza questo tipo di "protezione", non avrebbe la possibilità di sopravvivere a lungo e verrebbe selezionata rapidamente. Se isolato, l'uomo pone la propria salvezza di fronte a tutto, ma inserito in un contesto di gruppo coeso, subentrano equilibri che lo portano a valorizzare maggiormente comportamenti che preservino il gruppo. L'esempio principale è la famiglia (tra l'altro, incarnato principe della prosecuzione della specie), ma lo stesso atteggiamento si può ritrovare in gruppi particolarmente affiatati o contesti di tensione emotiva (come in battaglia).Rientrando nell'argomento di discussione...Tolto che, credo sia auspicabile tenere lontano dalle macchine il più possibile qualsiasi istinto di sopravvivenza (di cui noi saremmo i primi a fare le spese), come può una AI sviluppare una intelligenza simile alla nostra quando mancano presupposti come quelli descritti e in particolare mancano le relazioni di gruppo con individui della stessa specie?Ritengo che la chiave dello sviluppo dell'intelligenza (sempre intesa come la conosciamo noi) risieda nell'evoluzione. E' attraverso un'evoluzione "spontanea" (in un contesto di molte generazioni secondo gli stessi criteri umani), che può crescere una intelligenza adatta a vivere quel contesto. E' la selezione naturale (che principalmente seleziona i caratteri più idonei attraverso la selezione degli individui) la via da perseguire, a mio avviso.Le difficoltà che stiamo riscontrando, derivano dal fatto di voler saltare le tappe. Stiamo cercando di ottenere il risultato di miglioni di anni di evoluzione, producendone direttamente la conclusione. Non è impossibile, ma lo ritengo molto complicato.Scusate se mi sono dilungato un po' ma è un argomento che mi ha sempre appassionato.
          • Phronesis scrive:
            Re: Difficoltà delle AI
            - Scritto da: nex
            Ritengo che l'istinto principale dell'uomo non
            sia la sopravvivenza dell'individuo ma la
            sopravvivenza (o meglio: l'evoluzione) della
            specie. L'istinto di sopravvivenza dell'individuo
            è solo una conseguenza CiaoPremetto che non ho usato il termine "principale" ma "forte e primordiale" ed era una scelta di termini voluta.Detto questo io non concordo con il tuo pensiero ma _solo ed esclusivamente_ perchè, secondo me, confondi causa ed effetto.L'uomo (inteso antropologicamente) ha l'istinto di sopravire, l'evoluzione (sopravvivendo i più idonei c'è evoluzione) e la sopravvivenza della specie (collaborare permette la sopravvivenza individuale più facilmente) sono gli effetti di questo.Se ristabiliamo la giusta (imo) corrispondenza causa ed effetto il tuo discorso, oltre che ben espresso è condivisibile :D
          • nex scrive:
            Re: Difficoltà delle AI
            Mi sono espresso male. Non intendevo porre l'accento su un rapporto causa-effetto tra gli istinti dell'uomo. In effetti la sopravvivenza della specie non credo sia affatto un istinto dell'uomo. E' probabilmente la conseguenza della totalità delle spinte istintive umane. La teoria dell'evoluzione però tende a confondere l'effetto di un insieme di condizioni, facendoli spesso apparire come uno scopo. La sopravvivenza della specie non è invece un fine, ma un effetto (su questo mi sono espresso in modo poco chiaro). Il fatto però che la sopravvivenza della specie sia una condizione necessaria all'esistenza dell'individuo, porta facilmente a essere tratti in inganno sulla prospettiva con cui osservare il fenomeno. Stringendo, non siamo affatto spinti verso la sopravvivenza della specie in quanto vogliamo che la specie sopravviva, nè la specie ha una sua volontà di gruppo che influenza gli individui, ma semplicemente, se non sussistessero le condizioni discusse, non esisteremmo affatto (e non potremmo porci quesiti di questo genere).Temo di essere finito completamente off-topic: mi trasferisco su un forum di filosofia. [kidding]
        • collione scrive:
          Re: Difficoltà delle AI
          - Scritto da: Phronesis
          Finchè non si "comprende" che ciò che ha portato
          alla nostra intelligenza sono gli istinti dubito
          che si avranno risultati
          apprezzabili.ecco, questo è un fatto importanteun'IA deve avere come elemento fondamentale la spinta ad agire, a muoversi, a produrre un output ( o come altro lo si vuole dire )e cosa dovrebbe spingerla? negli animali è l'istinto, quindi ci vuole una forma d'istinto pure nelle macchine
          Si potrebbe iniziare con l'istinto più forte e
          primordiale: la
          sopravvivenza.Kevin Warwick fece esperimenti in questa direzione e creò dei robottini dal comportamento molto interessante
          Dicono "pari ad un bambino di 4 anni" io ne
          dubito.
          Repoto più intelligente un bot che mi batte ad
          uno strategico e cuno che mi sa dire perchè
          "volano gli
          uccelli"vabbè, ovviamente cercano di paragonare mele con arance, usando un metro di paragone prettamente umanostendiamo un velo pietoso

          Eppure anche i fervidi srittore di fantascienza
          hanno ipotizzato che le macchine sviluppino una
          loro IA indipendente al pericolo di essere
          "smantellate".esatto, perchè altrimenti non c'è proprio attività "cerebrale", "manca la corrente" e dunque niente vita
  • mix99 scrive:
    4 anni
    Se avessero acquistato questa macchina, invece degli F35, a quest'ora in parlamento avremmo sicuramente discorsi e soprattutto proposte di legge più sensate ed intelligenti...
    • collione scrive:
      Re: 4 anni
      - Scritto da: mosfet
      - Scritto da: mix99

      Se avessero acquistato questa macchina,
      invece

      degli F35, a quest'ora in parlamento avremmo

      sicuramente discorsi e soprattutto proposte
      di

      legge più sensate ed

      intelligenti...

      Spesso si dimentica che noi non siamo solo mente
      ma anche
      corpo.non c'è dubbio, i leghisti, in particolare, comunicano solo col corpo :D
  • MZorzy scrive:
    4 anni
    a 4 anni i bimbi non san risponder a domande precise o elaborar elementi esterni ? ma perfore ...
  • bertuccia scrive:
    diciamo paragonabile
    all'intelligenza del winaro medio :D "non sono capaci di elaborare gli elementi provenienti dall'esterno per prendere decisioni consapevoli" infatti si cuccano il piastrellotto preinstallato
    • astro scrive:
      Re: diciamo paragonabile
      - Scritto da: bertuccia
      all'intelligenza del winaro medio :D

      "non sono capaci di elaborare gli elementi
      provenienti dall'esterno per prendere decisioni
      consapevoli"

      infatti si cuccano il piastrellotto preinstallatose studiate un po' voi macachi riuscite forse, a raggiungerci :D
      • bertuccia scrive:
        Re: diciamo paragonabile
        - Scritto da: astro

        se studiate un po' voi macachi riuscite forse, a
        raggiungerci :Dognuno ha quel che si merita...a voi PiasterllOtto, a noi Otto the Automator![img]http://i.imgur.com/HTdTB1z.png[/img]
    • ndr scrive:
      Re: diciamo paragonabile
      - Scritto da: bertuccia
      all'intelligenza del winaro medio :D

      "non sono capaci di elaborare gli elementi
      provenienti dall'esterno per prendere decisioni
      consapevoli"

      infatti si cuccano il piastrellotto preinstallato1/10
  • ropel scrive:
    "appena" 4 anni ???!!!
    Se penso alle aspettative degli anni '80 riguardo all'AI (ad esempio il progetto giapponese "quinta generazione") e al brusco ridimensionamento delle stesse viste le enormi difficoltà, direi che i risultati odierni sono certamente sorprendenti, ma in senso positivo !
    • collione scrive:
      Re: "appena" 4 anni ???!!!
      non è questione di ridimensionamento, ma di approccio sbagliatonegli anni '80 hanno buttato alle ortiche le reti neurali, credendo che sarebbero bastati algoritmi di ricerca + hardware sempre più potente, per risolvere tutti i problemi dell'IAsi sono accorti che ci vogliono metodi "smart" invece di quelli brute forceil nuovo corso dell'IA sono le reti neural deep belief e i risultati si stanno già vedendo
Chiudi i commenti