Postbox è il fratellastro di Thunderbird

Un gruppo di ex sviluppatori Mozilla ha rilasciato un nuovo client email basato su Thunderbird ma capace di fornire un'interfaccia più al passo con i tempi e funzionalità a lungo attese, quali l'integrazione con i servizi Web 2.0

Roma – Mentre gli utenti rimasti fedeli a Thunderbird aspettano con tanta, tanta pazienza l’arrivo di Thunderbird 3 – che per altro non sembra promettere nulla di rivoluzionario – un gruppo di ex sviluppatori di Mozilla ha deciso di dare un seguito non ufficiale a Thunderbird 2. Il risultato è Postbox , un client di posta elettronica basato sullo stesso framework di Thunderbird ma dotato di un’interfaccia più accattivante e di alcune funzionalità inedite.

La prima beta pubblica del programma, disponibile qui per Windows e Mac OS X, migliora Thunderbird sostanzialmente in quattro aree: la ricerca di messaggi e parole chiave , che può essere effettuata con un maggior numero di criteri e utilizzando il linguaggio naturale (ad esempio, “before june 2008”); la gestione dei contenuti delle email , come allegati, link, immagini e contatti, che vengono elencati ordinatamente in un pannello a lato del messaggio e che possono essere facilmente inclusi in altre email; la gestione e l’organizzazione dei messaggi , che utilizza una visuale a thread (ogni conversazione viene racchiusa in un singolo thread) e permette di assegnare a ciascun messaggio un argomento (topic), concetto che estende quello alla base delle etichette (label) di Thunderbird 2; l’integrazione con i servizi Web 2.0 , quali i social network e i motori di ricerca.

Al pari di Thuderbird 3, anch’esso ancora allo stadio di beta, Postbox implementa i tab , rendendo così possibile aprire in una nuova scheda messaggi, lista dei contatti, cartelle, ricerche, allegati ecc.

A differenza di Thunderbird, Postbox mostra solo le cartelle relative all’account di posta selezionato: chi ha un elevato numero di cartelle può trovare questa funzione utile, perché riduce gli elementi visualizzati nella barra laterale; in caso contrario, questa scelta può risultare scomoda, perché costringe l’utente ad un click in più (selezione dell’account più selezione della cartella).

In Postbox i topic hanno un ruolo centrale nell’organizzazione dei messaggi, e lo dimostra il fatto che questi sono visualizzati proprio sotto gli account e le cartelle, nella barra laterale: con un solo click l’utente può così scegliere, in qualsiasi momento, di visualizzare solo le mail relative al lavoro, quelle personali o, ancora, quelle ad alta priorità.

Il neonato client di posta elettronica offre poi all’utente la Composite Sidebar , che semplifica l’inserimento, all’interno di un nuovo messaggio, di contenuti presenti sul disco del PC, all’interno di altre email (immagini, link o contatti) o persino sul web, come mappe e dizionari. L’integrazione con il web si concretizza anche nella possibilità di uploadare contatti su Facebook o foto su Picasa.

Tra le altre funzionalità degne di nota c’è la possibilità di utilizzare le email per annotare cose da fare e appuntamenti . Sul fronte della sicurezza è invece presente un filtro antiphishing e antimalware che controlla tutti gli URL che vengono aperti all’interno del client. Contribuisce a rafforzare la sicurezza del programma anche la funzione di aggiornamento automatico , ormai praticamente d’obbligo in questo genere di applicazioni.

Attualmente Postbox manca di un sistema per i plug-in come quello di Thunderbird, limitandone pesantemente l’espandibilità: non è ad esempio possibile abbinare a questo programma un tool per il PIM come Lightning.

Agli utenti di Thunderbird farà enorme piacere apprendere che Postbox è in grado di importare tutti i loro messaggi , cartelle, impostazioni, password e regole antispam: una funzione che in redazione siamo riusciti a utilizzare con successo persino con la beta di Thunderbird 3. Gli altri client supportati sono SeaMonkey/Netscape e Outlook Express.

Con il rilascio della prima beta pubblica di Postbox, con numero di versione 1.0b7 (2009020812), il team di sviluppo ha inaugurato anche il sito web e il blog ufficiale. Qui si apprende che alla fase privata di beta testing hanno partecipato oltre 10mila persone.

“Il nostro obiettivo è semplice: aiutarti ad essere più produttivo ed efficiente offrendoti la miglior esperienza di messaggistica possibile”, ha dichiarato Sherman Dickman, ex dirigente di Mozilla. Tra gli altri ideatori di Postbox c’è Scott MacGregor, uscito dal team di sviluppo di Thunderbird nel 2007 dopo la costituzione di Mozilla Messaging , società controllata da Mozilla Foundation con lo scopo di separare le attività di sviluppo e marketing di Firefox da quelle inerenti a Thunderbird ed eventuali futuri prodotti per la messaggistica e la comunicazione.

La prima versione stabile di Postbox dovrebbe vedere la luce entro la fine della primavera, e in tale occasione gli sviluppatori contano di rilasciare anche una versione per Linux . Per il momento nulla è stato detto circa la licenza sotto la quale sarà distribuito il software, ma è assai probabile che questa sarà la stessa di Thunderbird e Firefox.

I creatori di Postbox non hanno fatto alcun cenno a collaborazioni con Mozilla Messaging : per il momento il progetto appare un’iniziativa del tutto slegata a quella di Mozilla, seppure basata sulle stesse tecnologie. Di certo una fusione dei due progetti sarebbe auspicabile, ed eviterebbe un inutile dispendio di risorse ed energie.

La tua email sarà utilizzata per comunicarti se qualcuno risponde al tuo commento e non sarà pubblicato. Dichiari di avere preso visione e di accettare quanto previsto dalla informativa privacy

  • giuggiolo scrive:
    Nome del chip
    Ciao ragazzi!Trovo questo articolo molto interessante, tanto che ho preso in considerazione l'ipotesi di farci la tesina per gli esami (industriale indirizzo informatico)...per questo vi chiedo: quale è il nome della tecnologia? o il nome spocifico del chip? sta male chiamarlo ogni volta chip probabilistico, e comunque se ho un nome riesco anche a trovare più materiale!In attesa di risposte...ciao!Giuggiolo
  • giuggiolo scrive:
    Nome del chip
    Ciao ragazzi!Trovo questo articolo molto interessante, tanto che ho preso in considerazione l'ipotesi di farci la tesina per gli esami (industriale indirizzo informatico)...per questo vi chiedo: quale è il nome della tecnologia? o il nome spocifico del chip? sta male chiamarlo ogni volta chip probabilistico, e comunque se ho un nome riesco anche a trovare più materiale!In attesa di risposte...ciao!Giuggiolo
  • CimSity scrive:
    usarlo dove sarà utile
    Ma un esempio a caso tanto per... Se sim city calcola la felicità degli abitanti e.. non so metti i soldi che avrai alla fine del mese a seconda della distanza da ospedali scuole e giardinetti... ora devi aspettare metti 20 secondi per ogni "mese di gioco" per far calcolare al pc che al prossimo mese avrai 18763,1230012324834988329 Sim-dollari in piu, arrotondati a 18763 ... con un chip del genere il programmatore potrebbe dichiarare una variabile magari probfloat invece che float in modo da ottenere in 1.3 secondi invece che in 20 che il prossimo mese avrai 18763,123024 sim-dollari, arrotondati a 18763Vi sconvolgerebbe così tanto?
    • pabloski scrive:
      Re: usarlo dove sarà utile
      ma non è di questo che si trattanon si sta parlando di un'ALU probabilistica ma di un'ALU che dà i numeri al lottoo meglio si parla di tollerare la corruzione dei dati....se ti corrompe il bit meno significativo fa niente, ma se ti salta uno degli ultimi bit, cambia l'esponente ad esempio e invece di rappresentare 100.000 rappresenta 10 miliardi
      • acno scrive:
        Re: usarlo dove sarà utile
        Non credo che funzioni cosi', non avrebbe senso, da cio' che ho capito sembra che la ricerca sia proprio volta ad applicare la statistica a livello di chip, in modo da contenere l'errore finale entro valori prevedibili, utilizzando poco silicio e che lavori a tensioni bassissime (ovvero a livelli tali dove il rumore impedirebbe ai normali mos di lavorare in modo affidabile). In questo senso il ragionamento di CimSity e' corretto.Altrimenti avrebbero fatto solo un generatore di numeri casuali!
        • pabloski scrive:
          Re: usarlo dove sarà utile
          la logica che dovrà prevedere gli errori risulterebbe talmente complessa e richiederebbe talmente tanto silicio da rendere inutile il tuttoinvece il succo di quella proposta è che i proXXXXXri non necessitano di essere precise e che in ogni caso l'errore si manifesta raramente, oggi è 1/1^18 se non sbaglio, mentre nel caso proposto si arriverebbe a 1/1^5quindi un calcolo sbagliato ogni centomila e da lì deriverebbero i famosi artefatti grafici di cui si parlail problema è che salta il program counter, il sistema va in blocco
      • eheheh scrive:
        Re: usarlo dove sarà utile
        heheheeh :DC'è cmq poco da ridere perchè sarebbe utile un reale generatore di numeri casuali :D
      • CimSity scrive:
        Re: usarlo dove sarà utile
        Beh il succo della notizia non era il fatto di aver creato un computer che spara dati a caso, quello lo può fare chiunque, era quello di essere riusciti a controllare il livello d'errore.
    • igliff scrive:
      Re: usarlo dove sarà utile
      Non so, le questioni di logica matematica mi affascinano ma non ci capisco un tubo... Però mi sembra una roba meravigliosa per tutti quei computer invisibili che abbiamo intorno. Lettori musicali, video, videocamere... ma anche orologi, lavatrici, robot da cucina. Tutte quelle applicazioni per le quali il livello di precisione resta abbastanza accurato per un corretto funzionamento a fronte di una riduzione di spazio, un consumo di energia molto minore (a occhio direi veramente tanto) e, credo, molto meno spazio memoria necessario. per non dire che la sola riduzione di consumo energetico mi pare da sola una gran cosa...
  • acno scrive:
    Ostilita'
    Vedo che molti nutrono ostilita' verso questa cosa.Il rumore e l'errore sono intrinseci del mondo reale, anche i neuroni, come appunto ha scritto qualcuno, funzionano su questi principi e la natura usa la ridondanza per sopperire all'imprecisione di un singolo neurone ma che e' al tempo piccolo ed efficiente.Un proXXXXXre classico che ragiona in termini di 1 e 0 deve comunque approssimare quando deve confrontarsi con grandezze reali. Non mi sembra affatto una cattiva idea usare un hardware che si basa su principi molto piu' "reali" di quanto non lo siano quelli dei proXXXXXri tradizionali. Potrebbe essere proprio il primo passo verso una generazione di neuroni sintetici simili a quelli reali.In alcuni ambiti, come il multimediale, potrebbe portare anche a risultati migliori di quanto non si faccia gia'.Ad esempio oggi comprimiamo i video in blocchi digitali di dimensioni finite e determinate, combinati in vari modi, ottenendo artefatti piu' o meno visibili e noti a tutti. L'aggiunta di indeterminazione potrebbe rendere questi artefatti piu' naturali e meno fastidiosi, senza ricorrere a software complessi e esosi di potenza di calcolo "esatta".E' che spesso ci dimentichiamo di queste due cose:- l'essere umano e' terrorizzato dal caos e tende a classificare e organizzare qualunque cosa manipoli- caos != caso. Il caso non esiste, esiste il caos, strutture molto semplici che interagiscono ricorsivamente tramite leggi deterministiche. La natura usa la ricorsione per generare ordine complesso dal disordine apparente di queste strutture. (E io uso questo ordine per rigenerare di nuovo caos come quello che regna sulla mia scrivania :-D )Quindi questi proXXXXXri potrebbero avere piu' ragione di esistere di quanta non ne abbiano quelli "tradizionali".Vediamo quanti improperi mi arrivano....
    • Momento di inerzia scrive:
      Re: Ostilita'
      Comprendo il tuo post, e in linea di massima ritengo che tu abbia ragione, ma voglio provare a fare il puntiglioso ;)L'approssimazione dipende esclusivamente dal grado di precisione richiesto.E quindi ti rispondo molto semplicemente con "unità di misura di Planck"E' stato infatti scoperto che esistono degli intervalli minimi di tempo e di distanza al di sotto dei quali non si può andare.Questi intervalli sono detti "unità di misura di Planck"http://it.wikipedia.org/wiki/Unit%C3%A0_di_misura_di_PlanckViene fuori che il tempo e lo spazio non sono continui come ci appaiono, ma sono in definitiva "quantizzati".(Novikov - Il fiume del tempo)E quindi per descrivere senza errore il tutto in termini di 1 e 0 basta un numero sufficiente di bit :P^_________________^
      • acno scrive:
        Re: Ostilita'
        Non e' questione di essere puntigliosi o meno, la realta' e' proprio come dici tu (almeno per quello che ne sa la fisica oggi).E' colpa mia se non ho ben chiarito il succo del mio ragionamento che e': questi proXXXXXri, sfruttando il rumore e l'indeterminazione e quindi alla fin fine regolati da leggi della meccanica quantitistica, potrebbero paradossalmente essere piu' precisi di quelli tradizionali che non potranno mai accedere a risoluzioni altrettanto elevate (ovvero a livelli della scala di Plank).
        • acno scrive:
          Re: Ostilita'
          - Scritto da: acno...
          paradossalmente essere piu' precisi di quelli...Per piu' precisi intendo relativamente ad alcuni contesti, o forse no ???
        • oneforobama scrive:
          Re: Ostilita'
          - Scritto da: acno
          Non e' questione di essere puntigliosi o meno, la
          realta' e' proprio come dici tu (almeno per
          quello che ne sa la fisica
          oggi).

          E' colpa mia se non ho ben chiarito il succo del
          mio ragionamento che e': questi proXXXXXri,
          sfruttando il rumore e l'indeterminazione e
          quindi alla fin fine regolati da leggi della
          meccanica quantitistica, potrebbero
          paradossalmente essere piu' precisi di quelli
          tradizionali che non potranno mai accedere a
          risoluzioni altrettanto elevate (ovvero a livelli
          della scala di
          Plank).paradossalmente tanti piccoli errori si compensano migliorando la precisione, ed e' proprio cio' che accade nelle reti neurali dove alla precisione assoluta si contrappone quella relativa al contesto.esempio lampante e' la capacita' di un giocatore di scacchi a battere i piu' potenti calcolatori.
  • Ricky scrive:
    Una domanda...
    Ma non si puo' progettare una cpu che cambia modalita' a seconda del tipo di richiesta?!Mi spiego:se l'applicativo non richiede particolare precisione,la cpu entra in modalita' "speriamo in bene".Se richiede comunque una certa precisione ma non troppa la cpu va' in modalita' "Windows 7".Se la precisione deve essere massima la cpu va' nello stato di "ora mi piego dalla fatica".L'idea della degradazione di segnali audio e video + altre cose varie non mi va' molto giu'.Gia oggi usiamo compressioni video e perdiamo qualita', poi usiamo quelle audio e facciamo la medesima cosa.Alla fine avremo un compressore/decomperssore unico che fara' solo BUCHI e cerchi e tocchera' al cervello ricostruire tutto quello che manca!Ok, cazzeggio mode OFF :)Seriamente, se un chip ad uso mirato puo' avere le caratteristiche elencate dall'articolo e funzionare senza problemi, perche' non crearlo!?Dati i presupposti eviteremmo tante menate e tanti sprechi laddove e' possibile farlo.PEr il resto aspetteremo computer quantici ed affini.
  • Dani scrive:
    La CPU per Windows 7!
    Attenzione: oggetto volutamente provocatorio.Ad ogni modo un'idea interessante.
  • diego de cortes scrive:
    Motore ad improbabilità
    Adesso aspettiamo fiduciosi il motore ad improbabilità !
    • pabloski scrive:
      Re: Motore ad improbabilità
      ma quello già c'è, è il superenalotto :Dcomunque prevedo che tra 3 anni il più grande produttore di microproXXXXXri sarà Sisal :D
    • attonito scrive:
      Re: Motore ad improbabilità
      - Scritto da: diego de cortes
      Adesso aspettiamo fiduciosi il motore ad
      improbabilità
      !ci si vede al ristorante alla fine dell'universo, allora.Ma non li, alla fine dall'altra parte :)
  • Giuseppe scrive:
    Metodi numerici
    L'idea non è esattamente nuova, i metodo numerici sono usati da anni in informatica, quanto meno lato software, ad esempio mi vengono in mente i metodi iterativi per la risoluzione di sistemi densi di equazioni lineari.È banale ricordare che è impossibile fare i conti esatti quando entrano in gioco i reali.Partendo da questi presupposti l'idea non è male, fermo restando che è fondamentale riuscire a stimare l'errore.
    • SiN scrive:
      Re: Metodi numerici
      - Scritto da: Giuseppe
      L'idea non è esattamente nuova, i metodo numerici
      sono usati da anni in informatica, da secoli in matematica
    • VampWire scrive:
      Re: Metodi numerici
      Non solo,molti metodi di ottimizzazione attuale fanno ricorso alla probabilità per esplorare spazi di ricerca altrimenti enormi, impossibili da analizzare singolarmente. Se questi chip consentissero di valutare probabilisticamente un problema specifico, si potrebbero trovare soluzioni molto vicine all'ottimo in pochissimo tempo, risparmiando notevolmente. Intendo utilizzare i chip PCMOS connessi "probabilisticamente" come nelle FPGA, il cui risultato segue però le leggi di probabilità ed è quindi corredato di stima di errore...
  • ZioTano. scrive:
    Ma il parallelismo....
    ...non andava bene?Si era già trovata una soluzione a questo teorico "stop" tecnologico e mi sembra sia applicabile a qualsiasi ambito.A me questa mi pare la solita idea folle che fortunatamente cadrà nel dimenticatoio.La CPU per antonomasia si differisce dall'uomo proprio perchè non puo' sbagliare. La cosa per cui si usano sono proprio i calcoli.
    • anonymous scrive:
      Re: Ma il parallelismo....
      - Scritto da: ZioTano.
      ...non andava bene?
      Si era già trovata una soluzione a questo teorico
      "stop" tecnologico e mi sembra sia applicabile a
      qualsiasi
      ambito.

      A me questa mi pare la solita idea folle che
      fortunatamente cadrà nel
      dimenticatoio.

      La CPU per antonomasia si differisce dall'uomo
      proprio perchè non puo' sbagliare. La cosa per
      cui si usano sono proprio i
      calcoli.il problema è che programmare in multithreading non è semplice e non sempre il parallelismo è efficace. comunque questa cpu non verrà certo usata per calcolare un qualcosa di cui si vuole avere la massima precisione possibile (come anche scritto nell'articolo)
  • Aname scrive:
    potrebbe lavorare con...
    ...Microsoft!
  • za73 scrive:
    Il futuro!
    Ottimo, ho sempre prospettato un futuro alla William Gibson, ora invece sembra che dovrò ripiegare su Douglas Adams :)
    • DarkSchneider scrive:
      Re: Il futuro!
      - Scritto da: za73
      Ottimo, ho sempre prospettato un futuro alla
      William Gibson, ora invece sembra che dovrò
      ripiegare su Douglas Adams
      :)Stai per caso pensando alla propulsione a improbabilità infitita?;)
      • za73 scrive:
        Re: Il futuro!
        Certo, ma anche a Marvin, la vita l'universo e tutto quanto. :)
        • DarkSchneider scrive:
          Re: Il futuro!
          - Scritto da: za73
          Certo, ma anche a Marvin, la vita l'universo e
          tutto quanto.
          :)La risposta è 42! (Ovviamente il risultato è dato da una approssimazione)-----------------------------------------------------------Modificato dall' autore il 12 febbraio 2009 15.36-----------------------------------------------------------
  • GIn Fizz scrive:
    Non mi piace - inconscio
    Forse tutte ste approssimazioni (pixel sparsi qua e la', mp3 con tagli alle frequenze e millisecondi "silenziati") non penso faranno benissimo all'inconscio. A livello conscio probabilmente non ce ne accorgeremmo, ma a livello inconscio probabilmente si. E rimarrebbe non poco incasinato con tutta sta mancanza di linearita' percettiva. Vabbe' che a me gia' da' fastidio pensare di avere un punto cieco nella retina ... =)http://www.anisn.it/scuola/strumenti/visione/puntocieco.htm[ma ci sono saggi scientifici fantastici su come il cervello "compensi" il punto cieco, che dicono molte cose sulal nostra evoluzione]
  • Faustino scrive:
    Molti non afferrano il concetto
    Qui tutti dicono "nono meglio precisi", "non buttate via i soldi", "erano meglio gli 8086 e i C64!".Quello che non capite è come una cpu di quel tipo in un sistema home o comunque in sistemi non impiegati in certi ambiti sia una manna venuta dal cielo. Lettori mp3, player video portatili, player tv, console.... tutte cose in cui MAI vi servirà conoscere un risultato con una precisione alla 16 cifra decimale. Tutte cose che potrebbero andare N volte più veloci, tutte cose che potrebbero consumare N volte meno.Pensate ad un player mp3 portatile la cui batteria mi dura 20 giorni in playback. Pensateci bene invece che sparacchiare commenti a caso.
    • SiN scrive:
      Re: Molti non afferrano il concetto
      - Scritto da: Faustino
      Qui tutti dicono "nono meglio precisi", "non
      buttate via i soldi", "erano meglio gli 8086 e i
      C64!".

      Quello che non capite è come una cpu di quel tipo
      in un sistema home o comunque in sistemi non
      impiegati in certi ambiti sia una manna venuta
      dal cielo. Vero.MA mi preoccupa che vengano impiegati anche là dove SERVIREBBE la precisione
      • lufo88 scrive:
        Re: Molti non afferrano il concetto
        Basta leggere l'articolo:"I computer probabilistici, in ogni caso, non potranno essere di certo usati per calcolare la traiettoria di un missile o ricavare le previsioni del tempo da un modello matematico."
        • nome cognome scrive:
          Re: Molti non afferrano il concetto
          Vero, fino al giorno in cui qualcuno troverà più vantaggioso economicamente speculare sul proXXXXXre per vendere una soluzione spacciata per buona.A quel punto lui si farà i milioni e magari verrà giù qualche aereo o cadrà qualche missile dove non deve.A questo punto si darà la caccia al colpevole e si scoprirà che come alcuni ponti sono stati costruiti con beton scadente per ragioni speculative, o come qualcuno ha aggiunto melamina al latte per farlo apparire più proteico, allo stesso modo qualcuno ha spacciato una soluzione approssimata per una esatta.Inutile credere in babbo natale, succederà anche quello.Sia detto che non sono contro quel tipo di proXXXXXri, è sicuramente un lavoro interessante che merita di essere preso in considerazione. Ma non illudiamoci, tra qualche anno dovremo fare attenzione al tipo di circuito che ci accingiamo a comperare.
          • SiN scrive:
            Re: Molti non afferrano il concetto
            - Scritto da: nome cognome
            Vero, fino al giorno in cui qualcuno troverà più
            vantaggioso economicamente speculare sul
            proXXXXXre per vendere una soluzione spacciata
            per
            buona.
            A quel punto lui si farà i milioni e magari verrà
            giù qualche aereo o cadrà qualche missile dove
            non
            deve.esatto!
          • gerry scrive:
            Re: Molti non afferrano il concetto
            - Scritto da: nome cognome
            Inutile credere in babbo natale, succederà anche
            quello.E' già sucXXXXX come dici tu, non credo che il PC probabilistico possa aggravare il problema.
          • opellulo scrive:
            Re: Molti non afferrano il concetto
            Sarei davvero felice di vivere in un mondo nel quale gli unici "arrotondamenti" pericolosi siano quelli dei microchip.Esistono variabili molto più aleatorie e pericolose nei sistemi strutturati: li chiamano persone!
          • Axel scrive:
            Re: Molti non afferrano il concetto
            Quoto in pieno! :(- Scritto da: nome cognome
            Vero, fino al giorno in cui qualcuno troverà più
            vantaggioso economicamente speculare sul
            proXXXXXre per vendere una soluzione spacciata
            per
            buona.
            A quel punto lui si farà i milioni e magari verrà
            giù qualche aereo o cadrà qualche missile dove
            non
            deve.
            A questo punto si darà la caccia al colpevole e
            si scoprirà che come alcuni ponti sono stati
            costruiti con beton scadente per ragioni
            speculative, o come qualcuno ha aggiunto melamina
            al latte per farlo apparire più proteico, allo
            stesso modo qualcuno ha spacciato una soluzione
            approssimata per una
            esatta.

            Inutile credere in babbo natale, succederà anche
            quello.

            Sia detto che non sono contro quel tipo di
            proXXXXXri, è sicuramente un lavoro interessante
            che merita di essere preso in considerazione. Ma
            non illudiamoci, tra qualche anno dovremo fare
            attenzione al tipo di circuito che ci accingiamo
            a
            comperare.
          • walter stucco scrive:
            Re: Molti non afferrano il concetto
            e cosa cambia rispetto a oggi?a me fa molto più paura la mozzarella scaduta venduta come buona...secondo te la gente si mette a costruire aerei che precipitano?a che pro?dai su...smettiamola di fare i ridcoli...
          • noid scrive:
            Re: Molti non afferrano il concetto
            Quoto, e aggiungo che la mediocrità di un risultato finale è diversa dalla mediocrità strutturale. Posso anche utilizzare logica fuzzy in un software, ma il proXXXXXre sotto deve fare ESATTAMENTE quello che gli chiedo di fare !
          • Uby scrive:
            Re: Molti non afferrano il concetto
            - Scritto da: nome cognome
            Vero, fino al giorno in cui qualcuno troverà più
            vantaggioso economicamente speculare sul
            proXXXXXre per vendere una soluzione spacciata
            per
            buona.La tua "teoria" si pianta qui. Il vantaggio di questi proXXXXXri sono la velocità e il ridotto consumo. Economicamente non è conveniente, la produzione dovrebbe cominciare da 0.
        • Momento di inerzia scrive:
          Re: Molti non afferrano il concetto
          In realtà, avendo studiato meteorologia, posso dirti che una CPU di questo tipo andrebbe benissimo nello studio di un modello matematico per le previsioni del tempo.Ma è una mia opinione.Potrebbero esserci persone che la pensano come me e persone che non la pensano come me.Legittimo, ma non succede niente se sbaglio la previsione della pioggia di 30 minuti.Se invece il discorso si allarga e il satellite, invece di finire in orbita geostazionaria mi casca su St.Louis, la cosa cambia...
    • chojin scrive:
      Re: Molti non afferrano il concetto
      - Scritto da: Faustino
      Qui tutti dicono "nono meglio precisi", "non
      buttate via i soldi", "erano meglio gli 8086 e i
      C64!".

      Quello che non capite è come una cpu di quel tipo
      in un sistema home o comunque in sistemi non
      impiegati in certi ambiti sia una manna venuta
      dal cielo. Lettori mp3, player video portatili,
      player tv, console.... tutte cose in cui MAI vi
      servirà conoscere un risultato con una precisione
      alla 16 cifra decimale. Tutte cose che potrebbero
      andare N volte più veloci, tutte cose che
      potrebbero consumare N volte
      meno.

      Pensate ad un player mp3 portatile la cui
      batteria mi dura 20 giorni in playback.


      Pensateci bene invece che sparacchiare commenti a
      caso.Ma che idiozie dici? Non hai la più pallida idea evidentemente del funzionamento di un lettore MP3 .. di come sono progettati i filtri sia audio che video... Se ti metti ad approssimare in quegli algoritmi a caso come questo assurdo sistema di fatto otterrai nel migliore dei casi una qualità mediocre.
      • mah scrive:
        Re: Molti non afferrano il concetto
        - Scritto da: chojin
        Non hai la più pallida idea evidentemente del
        funzionamento di un lettore MP3 .. di come sono
        progettati i filtri sia audio che video...

        Se ti metti ad approssimare in quegli algoritmi a
        caso come questo assurdo sistema di fatto
        otterrai nel migliore dei casi una qualità
        mediocre.l'mp3 o gli mp4 sono già approssimazione della realtà, quindi vengono riapprossimati (non a caso) entro un certo margine i tuoi sensi non se ne accorgeranno
  • attonito scrive:
    La "legge" di Moore NON e' una legge
    Allora, il signor. Moore fece una PREVISIONE che diceva che la densita' dei chip sarebbe raddopiata ogni anno e mezzo. Furono poi i costruttori che si ingegnarono per far si che tale previsione si avverasse "quasi" ad ogni generazione di chip.Poi la gente comincio' credere che previsone=legge ed ecco fatto il danno.http://it.wikipedia.org/wiki/Legge_di_Moorehttp://www.gandalf.it/uman/moore.htm
    • Foy scrive:
      Re: La "legge" di Moore NON e' una legge
      - Scritto da: attonito
      Allora, il signor. Moore fece una PREVISIONE che
      diceva che la densita' dei chip sarebbe
      raddopiata ogni anno e mezzo. Furono poi i
      costruttori che si ingegnarono per far si che
      tale previsione si avverasse "quasi" ad ogni
      generazione di
      chip.
      Poi la gente comincio' credere che
      previsone=legge ed ecco fatto il
      danno.

      http://it.wikipedia.org/wiki/Legge_di_Moore
      http://www.gandalf.it/uman/moore.htmGuarda che lo sappiamo. Solo che ormai è una convenzione dire che si tratta di una legge.
      • Ciano scrive:
        Re: La "legge" di Moore NON e' una legge
        - Scritto da: Foy
        - Scritto da: attonito
        Guarda che lo sappiamo. Solo che ormai è una
        convenzione dire che si tratta di una legge.Per Intel è diventata una legge scritta.
        • littlegauss scrive:
          Re: La "legge" di Moore NON e' una legge
          veramente è più un obiettivo aziendale imposto da qualche manager tecnicamente ignorante. Sai, quelle XXXXXXXXX motivazionali che provano a rifilarti per spremerti al'ultima goccia, magari per un pugno di riso in più che chiamano bonus.
    • giorgio scrive:
      Re: La "legge" di Moore NON e' una legge
      - Scritto da: attonito
      Allora, il signor. Moore fece una PREVISIONE che
      diceva che la densita' dei chip sarebbe
      raddopiata ogni anno e mezzo. Furono poi i
      costruttori che si ingegnarono per far si che
      tale previsione si avverasse "quasi" ad ogni
      generazione di
      chip.
      Poi la gente comincio' credere che
      previsone=legge ed ecco fatto il
      danno.

      http://it.wikipedia.org/wiki/Legge_di_Moore
      http://www.gandalf.it/uman/moore.htmQuello che infastidisce è veder citata questa "legge" in quanto "legge" in posti tipo PI, direttamente dall'articolista, mentre dovrebbe essere relegata in tal veste in posti tipo il tg4!è addirittura una constatazione più che una previsione, meno che mai una legge! quello che mi infastidisce è che, per motivi più o meno legati ai finanziamenti alla ricerca che derivano dalla risonanza che la ricerca stessa ha presso l'opinione pubblica, cose come le "Singolarità di Schwarzschild" diventino "Buchi neri" e "Miniaturizzazione" diventi "Legge di Moore"!Con tanto rispetto per Moore che si era limitato ad osservare quanto logaritmicamente la tecnologia fosse in grado di avanzare!!!!
  • SiN scrive:
    falsa soluzione
    Ne parlava già Fibonacci nel XIII secolo-----------------------------------------------------------Modificato dall' autore il 12 febbraio 2009 09.56-----------------------------------------------------------
    • Ciano scrive:
      Re: falsa soluzione
      - Scritto da: SiN
      Ne parlava già Fibonacci nel XIII secoloNon ho capito a cosa ti riferisci (newbie)
      • SiN scrive:
        Re: falsa soluzione
        - Scritto da: Ciano
        - Scritto da: SiN

        Ne parlava già Fibonacci nel XIII secolo

        Non ho capito a cosa ti riferisci (newbie)sembra il metodo della falsa soluzione, che applicava nei suoi quesiti Leonardo Pisano, detto Fibonacci
  • Tommaso scrive:
    Scrivete meglio il codice
    Invece di sprecare tempo in ricerche inutili ricordatevi dei programmi complessi e perfettamente funzionanti che giravano allegramente su un 8086 con 128 K di ram.
    • ASSA scrive:
      Re: Scrivete meglio il codice
      - Scritto da: Tommaso
      Invece di sprecare tempo in ricerche inutili
      ricordatevi dei programmi complessi e
      perfettamente funzionanti che giravano
      allegramente su un 8086 con 128 K di
      ram.tu stai scrivendo da un 8086 con 128k di ram giusto?
    • nome e cognome scrive:
      Re: Scrivete meglio il codice
      - Scritto da: Tommaso
      Invece di sprecare tempo in ricerche inutili
      ricordatevi dei programmi complessi e
      perfettamente funzionanti che giravano
      allegramente su un 8086 con 128 K di
      ram.Si mi ricordo quando alle superiori abbiamo scritto un programma in basic per visualizzare il frattale di mandelbrot... ci ha messo solo due giorni per completarlo, bei tempi.
      • noid scrive:
        Re: Scrivete meglio il codice
        Io quando ero alle superiori ho scritto un programma che girava sul QL, in assembler 68008 (l'articolo su Mandelbrot apparve, se non ricordo male, su Le Scienze nel 1985). Il mio programma calcolava il frattale con ottima risoluzione (= numero di cicli) in poche ore. Dunque mi associo, si scrivano meglio i programmi e lasciamo perdere i proXXXXXri fuzzy !
        • pabloski scrive:
          Re: Scrivete meglio il codice
          in sostanza stai chiedendo di abolire la MS :D
          • noid scrive:
            Re: Scrivete meglio il codice
            - Scritto da: pabloski
            in sostanza stai chiedendo di abolire la MS :DUno dei miei libri preferiti è "Developing your own 32-bit operating system" !!!
    • Bah scrive:
      Re: Scrivete meglio il codice
      Hai ragione perfettamente.il codice scritto oggi spreca troppe risorse... dal sistema operativo in "avanti" è un continuo spreco di risorse, ma credo proprio che la rivoluzione dovrebbe partire dal SO e, successivamente, dai programmi che girano sopra.ma credo che la direzione che si è presa è: guarda quanti bei colori! Guarda come è facile per.... ecc.
    • saso scrive:
      Re: Scrivete meglio il codice
      - Scritto da: Tommaso
      Invece di sprecare tempo in ricerche inutili
      ricordatevi dei programmi complessi e
      perfettamente funzionanti che giravano
      allegramente su un 8086 con 128 K di
      ram.Quoto e ci aggiungo..ottimizzare il nuovo codice per sfruttare realmente le tecnologie disponibili sarebbe un enorme passo avanti (computazione reale a 64bit, multithreading ecc.), per le cose non indispensabili dimentichiamo la compatibilità verso il basso (lasciamo tali peculiarità relegate a software e sistemi che hanno la reale necessità di mantenere tali compatibilità), essa è la vera responsabile della presenza di tutto questo marciume software che richiede sempre maggiori risorse per fare le stesse cose, talvolta facendole anche peggio e più lentamente.Come diceva Totò "è la somma che fa il totale", se posso usare un software ottimizzato con un hardware ottimizzato non solo necessito di minore potenza ma anche di minore tempo per fare le stesse cose, quindi meno stress e maggiore risparmio energetico.
  • Star scrive:
    siamo alla frutta...
    Anziché investire in nuovi sistemi per produrre elaboratori più potenti ed allo stesso tempo precisi si pensa a come produrli più potenti ma imprecisi... inutile dire che qualora questo concetto dovesse passare nella testa dei consumatori (ma molto più probabilmente verrà accuratamente tenuto a loro nascosto) nulla impedirà ai produttori di CPU di vendere microproXXXXXri dai costi solo leggermente inferiori (per renderli più appetibili) ma la cui qualità e precisione lascerà sempre più a desiderare parandosi dietro al motto "tanto un pixel sbagliato o una cifre decimale leggermente sbagliata a chi vuoi che importa ?".
    • lubimaer scrive:
      Re: siamo alla frutta...
      Non ti preoccupare, tanto sta già accadendoSai quante CPU e chip vengono venduti ugualmente difettosi Si va dal declassamento della frequenza di clock (e qui sei tranquillo) fino al bit non funzionante nel registro che attiva la funzionalità utilizzata solamente dal 2% degli utenti (se becchi questo e vuoi la funzionalità devi riportare il chip all'assistenza che poi ti verrà sostituito, ma succede poche volte)
      • chojin scrive:
        Re: siamo alla frutta...
        - Scritto da: lubimaer
        Non ti preoccupare, tanto sta già accadendo
        Sai quante CPU e chip vengono venduti ugualmente
        difettosi Si va dal declassamento della frequenza
        di clock (e qui sei tranquillo) fino al bit non
        funzionante nel registro che attiva la
        funzionalità utilizzata solamente dal 2% degli
        utenti (se becchi questo e vuoi la funzionalità
        devi riportare il chip all'assistenza che poi ti
        verrà sostituito, ma succede poche
        volte)Ma che miti ti inventi? Ma che dici?
        • lufo88 scrive:
          Re: siamo alla frutta...
          Per la frequenza di clock ha ragione, i vari modelli sono sostanzialmente un declassamento del più potente (sai i costi di creare una catena di produzione per ogni frequenza?) oppure il più potente con una particolare funzione disattivata. Per il bit non ho capito.
          • Ciano scrive:
            Re: siamo alla frutta...
            - Scritto da: lufo88
            Per il bit non ho capito.Esiste sia per Intel che per AMD un documento scaricabile che elenca i bug conosciuti delle CPU attualmente in produzione, specificano anche i relativi workaround se non sbaglio.
          • pabloski scrive:
            Re: siamo alla frutta...
            e spesso e volentieri occultano errata gravi :D
          • littlegauss scrive:
            Re: siamo alla frutta...
            quoto, di sta roba mene ha parlato anche il mio professore di elettronica, principalmente comunque si tratta della cache, i cui costi sono molto alti, anche in termini realizzativi.
  • Darkat scrive:
    Pensieri un pò strani
    lo so che forse non centra niente con l'articolo lol ma mi è venuto in mente pensado a questo tipo di chip, ho pensato alla teoria di Einstein sulla relatività e tutti i punti sulla probabilità e sul determinismo ecc ecc ecc...e mi è venuta una domanda così per gioco, mi sono chiesto "ma un androide costruito con cip basata su questo principio probabilistico, sarebbero più human-like?", nel senso che se "pensassero" in modo probabilistico sarebbero forse più "liberi" di pensare,più umani? lo so che sono domande del cavolo ma è anche l'orario che mi fa questi effetti :/
    • Luigi Trabacchin scrive:
      Re: Pensieri un pò strani
      Bella domanda, non resta che provare ...
    • Nicolaus scrive:
      Re: Pensieri un pò strani
      Bhe in effetti non è una brutta domanda... effettivamente mi sa che l'uomo ha proprio questo chip inestato, anzi penso che l'uomo abbia il peggior chip probabilistico che ci possa essere...
    • fabiov scrive:
      Re: Pensieri un pò strani
      - Scritto da: Darkat
      mi sono chiesto "ma un
      androide costruito con cip basata su questo
      principio probabilistico, sarebbero più
      human-like?"Forse non sarà più "human-like", ma sicuramente più "woman-like" :-)
    • Darkat scrive:
      Re: Pensieri un pò strani
      wow sembra molto più interessante quel ragionamento fatto sulla logica fuzzy come l'hai detta tu O_O cioè voglio dire sarebbe più interessante costruire un computer che agisce seguendo quella logica che questa qui..almeno credo XD
      • pabloski scrive:
        Re: Pensieri un pò strani
        infatti il cervello umano usa la logica fuzzy per predire i pattern...in pratica è un misto di conoscenze esatte, analisti probabilistiche e inferenza sugli eventi futuriperò bisogna sempre notare che il cervello, come gli algoritmi numerici, è in grado di stimare l'errore, mentre i proXXXXXri proposti da questo signore non hanno la più pallida idea di dove, come, quando e di quale entità sarà l'errore
  • Lepaca scrive:
    GPGPU
    se i maggiori impieghi si immaginano nel settore della grafica, dovremo scordarci l'utilizzo delle schede come GPGPU?
    • The Bishop scrive:
      Re: GPGPU
      - Scritto da: Lepaca
      se i maggiori impieghi si immaginano nel settore
      della grafica, dovremo scordarci l'utilizzo delle
      schede come
      GPGPU?Non credo.In ambito consumer, il GPGPU e' usato prevalentemente per aumentare la velocita' di certi calcoli (solitamente fisica dei videogiochi, codifica/decodifica video e applicazione filtri video). In questo ambito, la ridotta precisione non comporta problemi significativi.In ambito professionale, dove il GPGPU e' usato per velocizzare calcoli scentifici di precisione e rendering grafico. Queste applicazioni verrebbero compromesse da questi proXXXXXri "imprecisi". E' altresi' vero che per questo mercato esistono soluzioni apposite che non utilizzano le comuni schede grafiche: infatti soluzioni come Nvidia Tesla o Ati Firestream che sono schede appositamente create per il GPGPU che montano diverse GPU, ma senza avere un'uscita grafica (delle schede video usano solo il proXXXXXre). Non mi risulta quindi difficile vedere una differenziazione del mercato a seconda dell'ambito di utilizzo.
    • nome e cognome scrive:
      Re: GPGPU
      - Scritto da: Lepaca
      se i maggiori impieghi si immaginano nel settore
      della grafica, dovremo scordarci l'utilizzo delle
      schede come
      GPGPU?Cosi' quando prenderai gli schiaffi nei giochi online potrai dare la colpa al proXXXXXre impreciso non alla mira scarsa ... non è fantastico?
      • Wolf01 scrive:
        Re: GPGPU
        Cavolo si parla di pixel, è come se in quake 3 mirassi all'unghia del mignolo del piede sinistro per uccidere il tizio, cioè, mica è questione di millimetri, dove si spara si spara, che sia 1 pixel a destra o 1 pixel a sinistra mica mi cambia... basta solo che non siano 90° di differenza :D
  • Antonio Macchi scrive:
    fare debug sara' uno spasso...
    te l'immagini fare debug, con una variabile che ad ogni lancio avra' un valore diverso?WOW... non vedo l'ora.
    • Faceman scrive:
      Re: fare debug sara' uno spasso...
      Le variabili inizializzate a caso ci possono anche stare..Ma ve lo immaginate un program counter che s'incrementa a caso??? O che non parte dal valore corretto????
      • N.C. scrive:
        Re: fare debug sara' uno spasso...
        Rabbrividisco ....
      • The Bishop scrive:
        Re: fare debug sara' uno spasso...
        - Scritto da: Faceman
        Le variabili inizializzate a caso ci possono
        anche
        stare..
        Ma ve lo immaginate un program counter che
        s'incrementa a caso??? O che non parte dal valore
        corretto????Si parla di precisione di unita' di calcolo non di unita' funzionali essenziali. Non dovrebbe inificiare in alcun modo branch e indirizzamento, soltanto le operazioni (sia INT che FPU). Ovvio che per certe applicazioni e' soltanto deleterio, ma come cpu a basso consumo per smartphone, PDA, netbook, mediacenter ed alcune applicazioni embedded dove la precisione non e' mission critical credo che possa funzionare: l'importante e' che non comporti troppe grane per gli sviluppatori...
        • Foy scrive:
          Re: fare debug sara' uno spasso...
          Credo anch'io che la mancata precisione andrà a colpire solo certi ambiti di calcolo. Ovvio che non può essere che se programmi un ciclo da 1 a I il chip va a zig zag tra i vari indici del ciclo. Piuttosto approssimerà la somma di valori a doppia precisione elaborate all'intero dei vari step.
          • Gdso scrive:
            Re: fare debug sara' uno spasso...
            Da tanti piccoli errori si genera un grande grande errore...
          • oneforobama scrive:
            Re: fare debug sara' uno spasso...
            - Scritto da: Gdso
            Da tanti piccoli errori si genera un grande
            grande
            errore...Tanti piccoli errori non si compensano?
          • tardi per fare il log scrive:
            Re: fare debug sara' uno spasso...
            ha involontariamente parlato dello scarto quadratico :D
          • oneforobama scrive:
            Re: fare debug sara' uno spasso...
            - Scritto da: tardi per fare il log
            ha involontariamente parlato dello scarto
            quadratico
            :DInvolontariamente?
  • diddy scrive:
    icona riciclata?
    eh si, mi ricordavo di questa iconahttp://punto-informatico.it/1880796/PI/News/punto-informatico-dodicesima-stagione.aspxche succede?non volete più pagare il grande Lucas?su su , in home page addirittura...
    • Antonino scrive:
      Re: icona riciclata?
      Certo che non hai niente da fare ehh..... che ti cambia se hanno riciclato un'icona....??
      • diddy scrive:
        Re: icona riciclata?
        - Scritto da: Antonino
        Certo che non hai niente da fare ehh..... che ti
        cambia se hanno riciclato
        un'icona....??direi che hai tanto da fare quanto me :)mi cambia che mi piace questo giornale A PARTIRE dalla home e apprezzo il lavoro di Schiavoni (infatti mi sono ricordato precisamente di QUELLA illustrazione) e mi piace vedere cosa si inventa ogni volta.vedere una riciclata così mi dispiace!e ora, A TE che cambia se a me non sta bene?e soprattutto: quanto poco hai da fare per leggere un commento su una icona, invece dell'articolo, dato che a te dell'icona non importa?
        • Nicolaus scrive:
          Re: icona riciclata?
          cavolate... come la risposta che hai dato ad antonio... cavolata...
          • Doralice scrive:
            Re: icona riciclata?
            - Scritto da: Nicolaus
            cavolate... come la risposta che hai dato ad
            antonio...
            cavolata...come questa , vero Antonino? ;)(troll2)
  • Momento di inerzia scrive:
    Intel
    Sono sempre stati avantihttp://it.wikipedia.org/wiki/Pentium_FDIV_bug(troll)(troll1)(troll2)(troll3)(troll4)
    • rockroll scrive:
      Re: Intel
      - Scritto da: Momento di inerzia
      Sono sempre stati avanti
      http://it.wikipedia.org/wiki/Pentium_FDIV_bug

      (troll)(troll1)(troll2)(troll3)(troll4)Difatti la prima cosa che si può pensare è che la maggior prestazione (ma di quanto poi) che Intel butta sul piatto della bilancia sia imparentata con tecnologie di questo tipo; io so soltanto che i miei vari AMD sono sempre stati a dir poco perfetti, mentre spesso e volentieri ho avuto esperienza ed ho sentito dire di HW (guarda caso non AMD) che ... sballa. Che sia poi colpa della mania di tirare il collo in OC alle CPU Intel?... Se vi capita una bella videata BLU tipica dei sistemi a finestre, e poi ripartendo tutto va bene (madama la marchesa), ci tranquiliziamo subito, vero? Ma secondo voi ciò e davvero dovuto a qualche driver non aggiornato come vuol far credere M$ (in combutta con Intel, il gatto e la volpe)?
      • Gombloddo scrive:
        Re: Intel
        Sì e non siamo mai andati sulla luna, gli alieni ci sono, le scie chimiche sopra Santa Clara servono a controllare i dipendenti, l'aera 51 è una fabbrica d'Intel, ci sono armi di distuzione di massa a San Marino, l'LHC trasformerà la Terra in un buco nero, sta per arrivare un asteroide che ci annienterà tutti, nel 2012 il sole diventerà una supernova e i pannelli solari diventeranno finalmente efficienti. (rotfl)
        • pluto scrive:
          Re: Intel

          nel 2012 il sole
          diventerà una supernova e i pannelli solari
          diventeranno finalmente efficienti.questa mi ha fatto sganasciare ;-)
          • Nicolaus scrive:
            Re: Intel
            In effetti tutti gli scenziati sono concordi nel dire che nel 2012 il sole avrà la massima intensità solare...
          • pinco scrive:
            Re: Intel
            - Scritto da: Nicolaus
            In effetti tutti gli scenziati sono concordi nel
            dire che nel 2012 il sole avrà la massima
            intensità
            solare...Stai scherzando, vero?cmq è scienziati
          • nome cognome scrive:
            Re: Intel
            Beh, per quanto riguarda l'attività solare è in ritardo di un buon anno, quindi anche se il massimo era realmente previsto per il 2012 penso che si potrà aspettare il 2013. Poi resta ancora da dimostrare che il massimo del 2012~2013 sarà veramente più intenso di quello precedente, e ricordo a tutti che ce n'è uno ogni 11 anni e non mi pare che all'epoca (~2000) si parlasse di fine del mondo (o forse si? :-P)
          • Nicolaus scrive:
            Re: Intel
            grazzzzzzieeee
          • Aname scrive:
            Re: Intel
            tutti tutti tutti ma proprio tutti?
        • Ciano scrive:
          Re: Intel
          - Scritto da: Gombloddo
          nel 2012 il sole diventerà una supernova
          e i pannelli solari diventeranno finalmente efficienti.
          (rotfl)Non vedo l'ora, così ci possiamo liberare del petrolio:(rotfl)
      • Faustino scrive:
        Re: Intel
        - Scritto da: rockroll
        - Scritto da: Momento di inerzia

        Sono sempre stati avanti

        http://it.wikipedia.org/wiki/Pentium_FDIV_bug



        (troll)(troll1)(troll2)(troll3)(troll4)

        Difatti la prima cosa che si può pensare è che la
        maggior prestazione (ma di quanto poi) che Intel
        butta sul piatto della bilancia sia imparentata
        con tecnologie di questo tipo; io so soltanto che
        i miei vari AMD sono sempre stati a dir poco
        perfetti, mentre spesso e volentieri ho avuto
        esperienza ed ho sentito dire di HW (guarda caso
        non AMD) che ... sballa. Che sia poi colpa della
        mania di tirare il collo in OC alle CPU Intel?...

        Se vi capita una bella videata BLU tipica dei
        sistemi a finestre, e poi ripartendo tutto va
        bene (madama la marchesa), ci tranquiliziamo
        subito, vero? Ma secondo voi ciò e davvero dovuto
        a qualche driver non aggiornato come vuol far
        credere M$ (in combutta con Intel, il gatto e la
        volpe)?Ho usato 2 anni intel, poi per 4 sono passato ad amd. Sono felice di essere tornato a intel. Ah qui nessun blue screen da 2 anni a questa parte, sarà che uso drivers stabili invece che ammazzarmi di beta ultime release?
        • The Bishop scrive:
          Re: Intel
          - Scritto da: Faustino
          [...]
          Ho usato 2 anni intel, poi per 4 sono passato ad
          amd.


          Sono felice di essere tornato a intel.

          [...]Mah, io ho usato per 7 anni Intel, poi sono passato ad Amd e dopo 6 anni sono tornato ad Intel.Ora, dopo due anni di Intel, sono tentato di tornare ad Amd: Intel e' stata una grossa delusione...
      • walter stucco scrive:
        Re: Intel
        semmai è il contrario....
    • The_GEZ scrive:
      Re: Intel
      Ciao Momento di inerzia !
      Sono sempre stati avanti
      http://it.wikipedia.org/wiki/Pentium_FDIV_bugAH !Mi hai anticipato !!! :-)http://www.netjeff.com/humor/item.cgi?file=PentiumJokes ;) :o ;) :o ;) :o ... :| !
  • Glock scrive:
    ben sperare !?
    "il fatto che i risultati ottenuti sperimentalmente abbiano superato le aspettative teoriche da lui stesso calcolate, fa ben sperare per il prosieguo di questa promettente ricerca."se nemmeno lui aveva calcolato bene la probabilità di aver sucXXXXX, siamo a posto!
    • Nome scrive:
      Re: ben sperare !?
      - Scritto da: Glock
      "il fatto che i risultati ottenuti
      sperimentalmente abbiano superato le aspettative
      teoriche da lui stesso calcolate, fa ben sperare
      per il prosieguo di questa promettente
      ricerca."

      se nemmeno lui aveva calcolato bene la
      probabilità di aver sucXXXXX, siamo a
      posto!mah, anche einstein disse una cosa del genere...
    • rockroll scrive:
      Re: ben sperare !?
      - Scritto da: Glock
      "il fatto che i risultati ottenuti
      sperimentalmente abbiano superato le aspettative
      teoriche da lui stesso calcolate, fa ben sperare
      per il prosieguo di questa promettente
      ricerca."

      se nemmeno lui aveva calcolato bene la
      probabilità di aver sucXXXXX, siamo a
      posto! Io mi spiego la cosa: da un punto di vista matematico si può calcolare con che grado di probabilità l'errore stia in un range accettabile, ed ovviamente si garantisce la situazione meno favorevole, ma ciò non toglie che più il risultato si avvicina al valore esatto, più esso è probabile (curva a campana di Gauss), addirittura la massima probabilità è proprio sul risultato esatto: ciò comporta che in situazioni di utilizzo pratico l'errore sia molto spesso molt ma molto più piccolo di quanto garantito ed in definitiva paventato.
      • Sandro kensan scrive:
        Re: ben sperare !?
        - Scritto da: rockroll
        ...ciò comporta che in situazioni
        di utilizzo pratico l'errore sia molto spesso
        molt ma molto più piccolo di quanto garantito ed
        in definitiva
        paventato.E quindi si possono costruire chip probabilistici ancora più performanto e più risparmiosi accettando un degrado della qualità poco percettibile. In particolare i lettori mp3 e i riproduttori video saranno i primi a consumare pochissima energia con questi chip (non si chiameranno più microproXXXXXri?).
    • 01234 scrive:
      Re: ben sperare !?
      approssimativamente :-D
    • Gennaro Ulivieri scrive:
      Re: ben sperare !?
      aveva fatto i calcoli col suo chip...
Chiudi i commenti