Roma – Mentre gli utenti rimasti fedeli a Thunderbird aspettano con tanta, tanta pazienza l’arrivo di Thunderbird 3 – che per altro non sembra promettere nulla di rivoluzionario – un gruppo di ex sviluppatori di Mozilla ha deciso di dare un seguito non ufficiale a Thunderbird 2. Il risultato è Postbox , un client di posta elettronica basato sullo stesso framework di Thunderbird ma dotato di un’interfaccia più accattivante e di alcune funzionalità inedite.
La prima beta pubblica del programma, disponibile qui per Windows e Mac OS X, migliora Thunderbird sostanzialmente in quattro aree: la ricerca di messaggi e parole chiave , che può essere effettuata con un maggior numero di criteri e utilizzando il linguaggio naturale (ad esempio, “before june 2008”); la gestione dei contenuti delle email , come allegati, link, immagini e contatti, che vengono elencati ordinatamente in un pannello a lato del messaggio e che possono essere facilmente inclusi in altre email; la gestione e l’organizzazione dei messaggi , che utilizza una visuale a thread (ogni conversazione viene racchiusa in un singolo thread) e permette di assegnare a ciascun messaggio un argomento (topic), concetto che estende quello alla base delle etichette (label) di Thunderbird 2; l’integrazione con i servizi Web 2.0 , quali i social network e i motori di ricerca.
Al pari di Thuderbird 3, anch’esso ancora allo stadio di beta, Postbox implementa i tab , rendendo così possibile aprire in una nuova scheda messaggi, lista dei contatti, cartelle, ricerche, allegati ecc.
A differenza di Thunderbird, Postbox mostra solo le cartelle relative all’account di posta selezionato: chi ha un elevato numero di cartelle può trovare questa funzione utile, perché riduce gli elementi visualizzati nella barra laterale; in caso contrario, questa scelta può risultare scomoda, perché costringe l’utente ad un click in più (selezione dell’account più selezione della cartella).
In Postbox i topic hanno un ruolo centrale nell’organizzazione dei messaggi, e lo dimostra il fatto che questi sono visualizzati proprio sotto gli account e le cartelle, nella barra laterale: con un solo click l’utente può così scegliere, in qualsiasi momento, di visualizzare solo le mail relative al lavoro, quelle personali o, ancora, quelle ad alta priorità.
Il neonato client di posta elettronica offre poi all’utente la Composite Sidebar , che semplifica l’inserimento, all’interno di un nuovo messaggio, di contenuti presenti sul disco del PC, all’interno di altre email (immagini, link o contatti) o persino sul web, come mappe e dizionari. L’integrazione con il web si concretizza anche nella possibilità di uploadare contatti su Facebook o foto su Picasa.

Tra le altre funzionalità degne di nota c’è la possibilità di utilizzare le email per annotare cose da fare e appuntamenti . Sul fronte della sicurezza è invece presente un filtro antiphishing e antimalware che controlla tutti gli URL che vengono aperti all’interno del client. Contribuisce a rafforzare la sicurezza del programma anche la funzione di aggiornamento automatico , ormai praticamente d’obbligo in questo genere di applicazioni.
Attualmente Postbox manca di un sistema per i plug-in come quello di Thunderbird, limitandone pesantemente l’espandibilità: non è ad esempio possibile abbinare a questo programma un tool per il PIM come Lightning.
Agli utenti di Thunderbird farà enorme piacere apprendere che Postbox è in grado di importare tutti i loro messaggi , cartelle, impostazioni, password e regole antispam: una funzione che in redazione siamo riusciti a utilizzare con successo persino con la beta di Thunderbird 3. Gli altri client supportati sono SeaMonkey/Netscape e Outlook Express.
Con il rilascio della prima beta pubblica di Postbox, con numero di versione 1.0b7 (2009020812), il team di sviluppo ha inaugurato anche il sito web e il blog ufficiale. Qui si apprende che alla fase privata di beta testing hanno partecipato oltre 10mila persone.
“Il nostro obiettivo è semplice: aiutarti ad essere più produttivo ed efficiente offrendoti la miglior esperienza di messaggistica possibile”, ha dichiarato Sherman Dickman, ex dirigente di Mozilla. Tra gli altri ideatori di Postbox c’è Scott MacGregor, uscito dal team di sviluppo di Thunderbird nel 2007 dopo la costituzione di Mozilla Messaging , società controllata da Mozilla Foundation con lo scopo di separare le attività di sviluppo e marketing di Firefox da quelle inerenti a Thunderbird ed eventuali futuri prodotti per la messaggistica e la comunicazione.
La prima versione stabile di Postbox dovrebbe vedere la luce entro la fine della primavera, e in tale occasione gli sviluppatori contano di rilasciare anche una versione per Linux . Per il momento nulla è stato detto circa la licenza sotto la quale sarà distribuito il software, ma è assai probabile che questa sarà la stessa di Thunderbird e Firefox.
I creatori di Postbox non hanno fatto alcun cenno a collaborazioni con Mozilla Messaging : per il momento il progetto appare un’iniziativa del tutto slegata a quella di Mozilla, seppure basata sulle stesse tecnologie. Di certo una fusione dei due progetti sarebbe auspicabile, ed eviterebbe un inutile dispendio di risorse ed energie.
-
Nome del chip
Ciao ragazzi!Trovo questo articolo molto interessante, tanto che ho preso in considerazione l'ipotesi di farci la tesina per gli esami (industriale indirizzo informatico)...per questo vi chiedo: quale è il nome della tecnologia? o il nome spocifico del chip? sta male chiamarlo ogni volta chip probabilistico, e comunque se ho un nome riesco anche a trovare più materiale!In attesa di risposte...ciao!Giuggiolo -
Nome del chip
Ciao ragazzi!Trovo questo articolo molto interessante, tanto che ho preso in considerazione l'ipotesi di farci la tesina per gli esami (industriale indirizzo informatico)...per questo vi chiedo: quale è il nome della tecnologia? o il nome spocifico del chip? sta male chiamarlo ogni volta chip probabilistico, e comunque se ho un nome riesco anche a trovare più materiale!In attesa di risposte...ciao!Giuggiolo -
usarlo dove sarà utile
Ma un esempio a caso tanto per... Se sim city calcola la felicità degli abitanti e.. non so metti i soldi che avrai alla fine del mese a seconda della distanza da ospedali scuole e giardinetti... ora devi aspettare metti 20 secondi per ogni "mese di gioco" per far calcolare al pc che al prossimo mese avrai 18763,1230012324834988329 Sim-dollari in piu, arrotondati a 18763 ... con un chip del genere il programmatore potrebbe dichiarare una variabile magari probfloat invece che float in modo da ottenere in 1.3 secondi invece che in 20 che il prossimo mese avrai 18763,123024 sim-dollari, arrotondati a 18763Vi sconvolgerebbe così tanto?-
Re: usarlo dove sarà utile
ma non è di questo che si trattanon si sta parlando di un'ALU probabilistica ma di un'ALU che dà i numeri al lottoo meglio si parla di tollerare la corruzione dei dati....se ti corrompe il bit meno significativo fa niente, ma se ti salta uno degli ultimi bit, cambia l'esponente ad esempio e invece di rappresentare 100.000 rappresenta 10 miliardi-
Re: usarlo dove sarà utile
Non credo che funzioni cosi', non avrebbe senso, da cio' che ho capito sembra che la ricerca sia proprio volta ad applicare la statistica a livello di chip, in modo da contenere l'errore finale entro valori prevedibili, utilizzando poco silicio e che lavori a tensioni bassissime (ovvero a livelli tali dove il rumore impedirebbe ai normali mos di lavorare in modo affidabile). In questo senso il ragionamento di CimSity e' corretto.Altrimenti avrebbero fatto solo un generatore di numeri casuali!-
Re: usarlo dove sarà utile
la logica che dovrà prevedere gli errori risulterebbe talmente complessa e richiederebbe talmente tanto silicio da rendere inutile il tuttoinvece il succo di quella proposta è che i proXXXXXri non necessitano di essere precise e che in ogni caso l'errore si manifesta raramente, oggi è 1/1^18 se non sbaglio, mentre nel caso proposto si arriverebbe a 1/1^5quindi un calcolo sbagliato ogni centomila e da lì deriverebbero i famosi artefatti grafici di cui si parlail problema è che salta il program counter, il sistema va in blocco
-
-
Re: usarlo dove sarà utile
heheheeh :DC'è cmq poco da ridere perchè sarebbe utile un reale generatore di numeri casuali :D -
Re: usarlo dove sarà utile
Beh il succo della notizia non era il fatto di aver creato un computer che spara dati a caso, quello lo può fare chiunque, era quello di essere riusciti a controllare il livello d'errore.
-
-
Re: usarlo dove sarà utile
Non so, le questioni di logica matematica mi affascinano ma non ci capisco un tubo... Però mi sembra una roba meravigliosa per tutti quei computer invisibili che abbiamo intorno. Lettori musicali, video, videocamere... ma anche orologi, lavatrici, robot da cucina. Tutte quelle applicazioni per le quali il livello di precisione resta abbastanza accurato per un corretto funzionamento a fronte di una riduzione di spazio, un consumo di energia molto minore (a occhio direi veramente tanto) e, credo, molto meno spazio memoria necessario. per non dire che la sola riduzione di consumo energetico mi pare da sola una gran cosa...
-
-
Ostilita'
Vedo che molti nutrono ostilita' verso questa cosa.Il rumore e l'errore sono intrinseci del mondo reale, anche i neuroni, come appunto ha scritto qualcuno, funzionano su questi principi e la natura usa la ridondanza per sopperire all'imprecisione di un singolo neurone ma che e' al tempo piccolo ed efficiente.Un proXXXXXre classico che ragiona in termini di 1 e 0 deve comunque approssimare quando deve confrontarsi con grandezze reali. Non mi sembra affatto una cattiva idea usare un hardware che si basa su principi molto piu' "reali" di quanto non lo siano quelli dei proXXXXXri tradizionali. Potrebbe essere proprio il primo passo verso una generazione di neuroni sintetici simili a quelli reali.In alcuni ambiti, come il multimediale, potrebbe portare anche a risultati migliori di quanto non si faccia gia'.Ad esempio oggi comprimiamo i video in blocchi digitali di dimensioni finite e determinate, combinati in vari modi, ottenendo artefatti piu' o meno visibili e noti a tutti. L'aggiunta di indeterminazione potrebbe rendere questi artefatti piu' naturali e meno fastidiosi, senza ricorrere a software complessi e esosi di potenza di calcolo "esatta".E' che spesso ci dimentichiamo di queste due cose:- l'essere umano e' terrorizzato dal caos e tende a classificare e organizzare qualunque cosa manipoli- caos != caso. Il caso non esiste, esiste il caos, strutture molto semplici che interagiscono ricorsivamente tramite leggi deterministiche. La natura usa la ricorsione per generare ordine complesso dal disordine apparente di queste strutture. (E io uso questo ordine per rigenerare di nuovo caos come quello che regna sulla mia scrivania :-D )Quindi questi proXXXXXri potrebbero avere piu' ragione di esistere di quanta non ne abbiano quelli "tradizionali".Vediamo quanti improperi mi arrivano....-
Re: Ostilita'
Comprendo il tuo post, e in linea di massima ritengo che tu abbia ragione, ma voglio provare a fare il puntiglioso ;)L'approssimazione dipende esclusivamente dal grado di precisione richiesto.E quindi ti rispondo molto semplicemente con "unità di misura di Planck"E' stato infatti scoperto che esistono degli intervalli minimi di tempo e di distanza al di sotto dei quali non si può andare.Questi intervalli sono detti "unità di misura di Planck"http://it.wikipedia.org/wiki/Unit%C3%A0_di_misura_di_PlanckViene fuori che il tempo e lo spazio non sono continui come ci appaiono, ma sono in definitiva "quantizzati".(Novikov - Il fiume del tempo)E quindi per descrivere senza errore il tutto in termini di 1 e 0 basta un numero sufficiente di bit :P^_________________^-
Re: Ostilita'
Non e' questione di essere puntigliosi o meno, la realta' e' proprio come dici tu (almeno per quello che ne sa la fisica oggi).E' colpa mia se non ho ben chiarito il succo del mio ragionamento che e': questi proXXXXXri, sfruttando il rumore e l'indeterminazione e quindi alla fin fine regolati da leggi della meccanica quantitistica, potrebbero paradossalmente essere piu' precisi di quelli tradizionali che non potranno mai accedere a risoluzioni altrettanto elevate (ovvero a livelli della scala di Plank).-
Re: Ostilita'
- Scritto da: acno...
paradossalmente essere piu' precisi di quelli...Per piu' precisi intendo relativamente ad alcuni contesti, o forse no ??? -
Re: Ostilita'
- Scritto da: acno
Non e' questione di essere puntigliosi o meno, la
realta' e' proprio come dici tu (almeno per
quello che ne sa la fisica
oggi).
E' colpa mia se non ho ben chiarito il succo del
mio ragionamento che e': questi proXXXXXri,
sfruttando il rumore e l'indeterminazione e
quindi alla fin fine regolati da leggi della
meccanica quantitistica, potrebbero
paradossalmente essere piu' precisi di quelli
tradizionali che non potranno mai accedere a
risoluzioni altrettanto elevate (ovvero a livelli
della scala di
Plank).paradossalmente tanti piccoli errori si compensano migliorando la precisione, ed e' proprio cio' che accade nelle reti neurali dove alla precisione assoluta si contrappone quella relativa al contesto.esempio lampante e' la capacita' di un giocatore di scacchi a battere i piu' potenti calcolatori.
-
-
-
-
Una domanda...
Ma non si puo' progettare una cpu che cambia modalita' a seconda del tipo di richiesta?!Mi spiego:se l'applicativo non richiede particolare precisione,la cpu entra in modalita' "speriamo in bene".Se richiede comunque una certa precisione ma non troppa la cpu va' in modalita' "Windows 7".Se la precisione deve essere massima la cpu va' nello stato di "ora mi piego dalla fatica".L'idea della degradazione di segnali audio e video + altre cose varie non mi va' molto giu'.Gia oggi usiamo compressioni video e perdiamo qualita', poi usiamo quelle audio e facciamo la medesima cosa.Alla fine avremo un compressore/decomperssore unico che fara' solo BUCHI e cerchi e tocchera' al cervello ricostruire tutto quello che manca!Ok, cazzeggio mode OFF :)Seriamente, se un chip ad uso mirato puo' avere le caratteristiche elencate dall'articolo e funzionare senza problemi, perche' non crearlo!?Dati i presupposti eviteremmo tante menate e tanti sprechi laddove e' possibile farlo.PEr il resto aspetteremo computer quantici ed affini. -
La CPU per Windows 7!
Attenzione: oggetto volutamente provocatorio.Ad ogni modo un'idea interessante. -
Motore ad improbabilità
Adesso aspettiamo fiduciosi il motore ad improbabilità !-
Re: Motore ad improbabilità
ma quello già c'è, è il superenalotto :Dcomunque prevedo che tra 3 anni il più grande produttore di microproXXXXXri sarà Sisal :D -
Re: Motore ad improbabilità
- Scritto da: diego de cortes
Adesso aspettiamo fiduciosi il motore ad
improbabilità
!ci si vede al ristorante alla fine dell'universo, allora.Ma non li, alla fine dall'altra parte :)
-
-
Metodi numerici
L'idea non è esattamente nuova, i metodo numerici sono usati da anni in informatica, quanto meno lato software, ad esempio mi vengono in mente i metodi iterativi per la risoluzione di sistemi densi di equazioni lineari.È banale ricordare che è impossibile fare i conti esatti quando entrano in gioco i reali.Partendo da questi presupposti l'idea non è male, fermo restando che è fondamentale riuscire a stimare l'errore.-
Re: Metodi numerici
- Scritto da: Giuseppe
L'idea non è esattamente nuova, i metodo numerici
sono usati da anni in informatica, da secoli in matematica -
Re: Metodi numerici
Non solo,molti metodi di ottimizzazione attuale fanno ricorso alla probabilità per esplorare spazi di ricerca altrimenti enormi, impossibili da analizzare singolarmente. Se questi chip consentissero di valutare probabilisticamente un problema specifico, si potrebbero trovare soluzioni molto vicine all'ottimo in pochissimo tempo, risparmiando notevolmente. Intendo utilizzare i chip PCMOS connessi "probabilisticamente" come nelle FPGA, il cui risultato segue però le leggi di probabilità ed è quindi corredato di stima di errore...
-
-
Ma il parallelismo....
...non andava bene?Si era già trovata una soluzione a questo teorico "stop" tecnologico e mi sembra sia applicabile a qualsiasi ambito.A me questa mi pare la solita idea folle che fortunatamente cadrà nel dimenticatoio.La CPU per antonomasia si differisce dall'uomo proprio perchè non puo' sbagliare. La cosa per cui si usano sono proprio i calcoli.-
Re: Ma il parallelismo....
- Scritto da: ZioTano.
...non andava bene?
Si era già trovata una soluzione a questo teorico
"stop" tecnologico e mi sembra sia applicabile a
qualsiasi
ambito.
A me questa mi pare la solita idea folle che
fortunatamente cadrà nel
dimenticatoio.
La CPU per antonomasia si differisce dall'uomo
proprio perchè non puo' sbagliare. La cosa per
cui si usano sono proprio i
calcoli.il problema è che programmare in multithreading non è semplice e non sempre il parallelismo è efficace. comunque questa cpu non verrà certo usata per calcolare un qualcosa di cui si vuole avere la massima precisione possibile (come anche scritto nell'articolo)
-
-
potrebbe lavorare con...
...Microsoft! -
Il futuro!
Ottimo, ho sempre prospettato un futuro alla William Gibson, ora invece sembra che dovrò ripiegare su Douglas Adams :)-
Re: Il futuro!
- Scritto da: za73
Ottimo, ho sempre prospettato un futuro alla
William Gibson, ora invece sembra che dovrò
ripiegare su Douglas Adams
:)Stai per caso pensando alla propulsione a improbabilità infitita?;)-
Re: Il futuro!
Certo, ma anche a Marvin, la vita l'universo e tutto quanto. :)-
Re: Il futuro!
- Scritto da: za73
Certo, ma anche a Marvin, la vita l'universo e
tutto quanto.
:)La risposta è 42! (Ovviamente il risultato è dato da una approssimazione)-----------------------------------------------------------Modificato dall' autore il 12 febbraio 2009 15.36-----------------------------------------------------------
-
-
-
-
Non mi piace - inconscio
Forse tutte ste approssimazioni (pixel sparsi qua e la', mp3 con tagli alle frequenze e millisecondi "silenziati") non penso faranno benissimo all'inconscio. A livello conscio probabilmente non ce ne accorgeremmo, ma a livello inconscio probabilmente si. E rimarrebbe non poco incasinato con tutta sta mancanza di linearita' percettiva. Vabbe' che a me gia' da' fastidio pensare di avere un punto cieco nella retina ... =)http://www.anisn.it/scuola/strumenti/visione/puntocieco.htm[ma ci sono saggi scientifici fantastici su come il cervello "compensi" il punto cieco, che dicono molte cose sulal nostra evoluzione] -
Molti non afferrano il concetto
Qui tutti dicono "nono meglio precisi", "non buttate via i soldi", "erano meglio gli 8086 e i C64!".Quello che non capite è come una cpu di quel tipo in un sistema home o comunque in sistemi non impiegati in certi ambiti sia una manna venuta dal cielo. Lettori mp3, player video portatili, player tv, console.... tutte cose in cui MAI vi servirà conoscere un risultato con una precisione alla 16 cifra decimale. Tutte cose che potrebbero andare N volte più veloci, tutte cose che potrebbero consumare N volte meno.Pensate ad un player mp3 portatile la cui batteria mi dura 20 giorni in playback. Pensateci bene invece che sparacchiare commenti a caso.-
Re: Molti non afferrano il concetto
- Scritto da: Faustino
Qui tutti dicono "nono meglio precisi", "non
buttate via i soldi", "erano meglio gli 8086 e i
C64!".
Quello che non capite è come una cpu di quel tipo
in un sistema home o comunque in sistemi non
impiegati in certi ambiti sia una manna venuta
dal cielo. Vero.MA mi preoccupa che vengano impiegati anche là dove SERVIREBBE la precisione-
Re: Molti non afferrano il concetto
Basta leggere l'articolo:"I computer probabilistici, in ogni caso, non potranno essere di certo usati per calcolare la traiettoria di un missile o ricavare le previsioni del tempo da un modello matematico."-
Re: Molti non afferrano il concetto
Vero, fino al giorno in cui qualcuno troverà più vantaggioso economicamente speculare sul proXXXXXre per vendere una soluzione spacciata per buona.A quel punto lui si farà i milioni e magari verrà giù qualche aereo o cadrà qualche missile dove non deve.A questo punto si darà la caccia al colpevole e si scoprirà che come alcuni ponti sono stati costruiti con beton scadente per ragioni speculative, o come qualcuno ha aggiunto melamina al latte per farlo apparire più proteico, allo stesso modo qualcuno ha spacciato una soluzione approssimata per una esatta.Inutile credere in babbo natale, succederà anche quello.Sia detto che non sono contro quel tipo di proXXXXXri, è sicuramente un lavoro interessante che merita di essere preso in considerazione. Ma non illudiamoci, tra qualche anno dovremo fare attenzione al tipo di circuito che ci accingiamo a comperare.-
Re: Molti non afferrano il concetto
- Scritto da: nome cognome
Vero, fino al giorno in cui qualcuno troverà più
vantaggioso economicamente speculare sul
proXXXXXre per vendere una soluzione spacciata
per
buona.
A quel punto lui si farà i milioni e magari verrà
giù qualche aereo o cadrà qualche missile dove
non
deve.esatto! -
Re: Molti non afferrano il concetto
- Scritto da: nome cognome
Inutile credere in babbo natale, succederà anche
quello.E' già sucXXXXX come dici tu, non credo che il PC probabilistico possa aggravare il problema. -
Re: Molti non afferrano il concetto
Sarei davvero felice di vivere in un mondo nel quale gli unici "arrotondamenti" pericolosi siano quelli dei microchip.Esistono variabili molto più aleatorie e pericolose nei sistemi strutturati: li chiamano persone! -
Re: Molti non afferrano il concetto
Quoto in pieno! :(- Scritto da: nome cognome
Vero, fino al giorno in cui qualcuno troverà più
vantaggioso economicamente speculare sul
proXXXXXre per vendere una soluzione spacciata
per
buona.
A quel punto lui si farà i milioni e magari verrà
giù qualche aereo o cadrà qualche missile dove
non
deve.
A questo punto si darà la caccia al colpevole e
si scoprirà che come alcuni ponti sono stati
costruiti con beton scadente per ragioni
speculative, o come qualcuno ha aggiunto melamina
al latte per farlo apparire più proteico, allo
stesso modo qualcuno ha spacciato una soluzione
approssimata per una
esatta.
Inutile credere in babbo natale, succederà anche
quello.
Sia detto che non sono contro quel tipo di
proXXXXXri, è sicuramente un lavoro interessante
che merita di essere preso in considerazione. Ma
non illudiamoci, tra qualche anno dovremo fare
attenzione al tipo di circuito che ci accingiamo
a
comperare. -
Re: Molti non afferrano il concetto
e cosa cambia rispetto a oggi?a me fa molto più paura la mozzarella scaduta venduta come buona...secondo te la gente si mette a costruire aerei che precipitano?a che pro?dai su...smettiamola di fare i ridcoli... -
Re: Molti non afferrano il concetto
Quoto, e aggiungo che la mediocrità di un risultato finale è diversa dalla mediocrità strutturale. Posso anche utilizzare logica fuzzy in un software, ma il proXXXXXre sotto deve fare ESATTAMENTE quello che gli chiedo di fare ! -
Re: Molti non afferrano il concetto
- Scritto da: nome cognome
Vero, fino al giorno in cui qualcuno troverà più
vantaggioso economicamente speculare sul
proXXXXXre per vendere una soluzione spacciata
per
buona.La tua "teoria" si pianta qui. Il vantaggio di questi proXXXXXri sono la velocità e il ridotto consumo. Economicamente non è conveniente, la produzione dovrebbe cominciare da 0.
-
-
Re: Molti non afferrano il concetto
In realtà, avendo studiato meteorologia, posso dirti che una CPU di questo tipo andrebbe benissimo nello studio di un modello matematico per le previsioni del tempo.Ma è una mia opinione.Potrebbero esserci persone che la pensano come me e persone che non la pensano come me.Legittimo, ma non succede niente se sbaglio la previsione della pioggia di 30 minuti.Se invece il discorso si allarga e il satellite, invece di finire in orbita geostazionaria mi casca su St.Louis, la cosa cambia...
-
-
-
Re: Molti non afferrano il concetto
- Scritto da: Faustino
Qui tutti dicono "nono meglio precisi", "non
buttate via i soldi", "erano meglio gli 8086 e i
C64!".
Quello che non capite è come una cpu di quel tipo
in un sistema home o comunque in sistemi non
impiegati in certi ambiti sia una manna venuta
dal cielo. Lettori mp3, player video portatili,
player tv, console.... tutte cose in cui MAI vi
servirà conoscere un risultato con una precisione
alla 16 cifra decimale. Tutte cose che potrebbero
andare N volte più veloci, tutte cose che
potrebbero consumare N volte
meno.
Pensate ad un player mp3 portatile la cui
batteria mi dura 20 giorni in playback.
Pensateci bene invece che sparacchiare commenti a
caso.Ma che idiozie dici? Non hai la più pallida idea evidentemente del funzionamento di un lettore MP3 .. di come sono progettati i filtri sia audio che video... Se ti metti ad approssimare in quegli algoritmi a caso come questo assurdo sistema di fatto otterrai nel migliore dei casi una qualità mediocre.-
Re: Molti non afferrano il concetto
- Scritto da: chojin
Non hai la più pallida idea evidentemente del
funzionamento di un lettore MP3 .. di come sono
progettati i filtri sia audio che video...
Se ti metti ad approssimare in quegli algoritmi a
caso come questo assurdo sistema di fatto
otterrai nel migliore dei casi una qualità
mediocre.l'mp3 o gli mp4 sono già approssimazione della realtà, quindi vengono riapprossimati (non a caso) entro un certo margine i tuoi sensi non se ne accorgeranno
-
-
-
La "legge" di Moore NON e' una legge
Allora, il signor. Moore fece una PREVISIONE che diceva che la densita' dei chip sarebbe raddopiata ogni anno e mezzo. Furono poi i costruttori che si ingegnarono per far si che tale previsione si avverasse "quasi" ad ogni generazione di chip.Poi la gente comincio' credere che previsone=legge ed ecco fatto il danno.http://it.wikipedia.org/wiki/Legge_di_Moorehttp://www.gandalf.it/uman/moore.htm-
Re: La "legge" di Moore NON e' una legge
- Scritto da: attonito
Allora, il signor. Moore fece una PREVISIONE che
diceva che la densita' dei chip sarebbe
raddopiata ogni anno e mezzo. Furono poi i
costruttori che si ingegnarono per far si che
tale previsione si avverasse "quasi" ad ogni
generazione di
chip.
Poi la gente comincio' credere che
previsone=legge ed ecco fatto il
danno.
http://it.wikipedia.org/wiki/Legge_di_Moore
http://www.gandalf.it/uman/moore.htmGuarda che lo sappiamo. Solo che ormai è una convenzione dire che si tratta di una legge.-
Re: La "legge" di Moore NON e' una legge
- Scritto da: Foy
- Scritto da: attonito
Guarda che lo sappiamo. Solo che ormai è una
convenzione dire che si tratta di una legge.Per Intel è diventata una legge scritta.-
Re: La "legge" di Moore NON e' una legge
veramente è più un obiettivo aziendale imposto da qualche manager tecnicamente ignorante. Sai, quelle XXXXXXXXX motivazionali che provano a rifilarti per spremerti al'ultima goccia, magari per un pugno di riso in più che chiamano bonus.
-
-
-
Re: La "legge" di Moore NON e' una legge
- Scritto da: attonito
Allora, il signor. Moore fece una PREVISIONE che
diceva che la densita' dei chip sarebbe
raddopiata ogni anno e mezzo. Furono poi i
costruttori che si ingegnarono per far si che
tale previsione si avverasse "quasi" ad ogni
generazione di
chip.
Poi la gente comincio' credere che
previsone=legge ed ecco fatto il
danno.
http://it.wikipedia.org/wiki/Legge_di_Moore
http://www.gandalf.it/uman/moore.htmQuello che infastidisce è veder citata questa "legge" in quanto "legge" in posti tipo PI, direttamente dall'articolista, mentre dovrebbe essere relegata in tal veste in posti tipo il tg4!è addirittura una constatazione più che una previsione, meno che mai una legge! quello che mi infastidisce è che, per motivi più o meno legati ai finanziamenti alla ricerca che derivano dalla risonanza che la ricerca stessa ha presso l'opinione pubblica, cose come le "Singolarità di Schwarzschild" diventino "Buchi neri" e "Miniaturizzazione" diventi "Legge di Moore"!Con tanto rispetto per Moore che si era limitato ad osservare quanto logaritmicamente la tecnologia fosse in grado di avanzare!!!!
-
-
falsa soluzione
Ne parlava già Fibonacci nel XIII secolo-----------------------------------------------------------Modificato dall' autore il 12 febbraio 2009 09.56------------------------------------------------------------
Re: falsa soluzione
- Scritto da: SiN
Ne parlava già Fibonacci nel XIII secoloNon ho capito a cosa ti riferisci (newbie)-
Re: falsa soluzione
- Scritto da: Ciano
- Scritto da: SiN
Ne parlava già Fibonacci nel XIII secolo
Non ho capito a cosa ti riferisci (newbie)sembra il metodo della falsa soluzione, che applicava nei suoi quesiti Leonardo Pisano, detto Fibonacci
-
-
-
Scrivete meglio il codice
Invece di sprecare tempo in ricerche inutili ricordatevi dei programmi complessi e perfettamente funzionanti che giravano allegramente su un 8086 con 128 K di ram.-
Re: Scrivete meglio il codice
- Scritto da: Tommaso
Invece di sprecare tempo in ricerche inutili
ricordatevi dei programmi complessi e
perfettamente funzionanti che giravano
allegramente su un 8086 con 128 K di
ram.tu stai scrivendo da un 8086 con 128k di ram giusto? -
Re: Scrivete meglio il codice
- Scritto da: Tommaso
Invece di sprecare tempo in ricerche inutili
ricordatevi dei programmi complessi e
perfettamente funzionanti che giravano
allegramente su un 8086 con 128 K di
ram.Si mi ricordo quando alle superiori abbiamo scritto un programma in basic per visualizzare il frattale di mandelbrot... ci ha messo solo due giorni per completarlo, bei tempi.-
Re: Scrivete meglio il codice
Io quando ero alle superiori ho scritto un programma che girava sul QL, in assembler 68008 (l'articolo su Mandelbrot apparve, se non ricordo male, su Le Scienze nel 1985). Il mio programma calcolava il frattale con ottima risoluzione (= numero di cicli) in poche ore. Dunque mi associo, si scrivano meglio i programmi e lasciamo perdere i proXXXXXri fuzzy !-
Re: Scrivete meglio il codice
in sostanza stai chiedendo di abolire la MS :D-
Re: Scrivete meglio il codice
- Scritto da: pabloski
in sostanza stai chiedendo di abolire la MS :DUno dei miei libri preferiti è "Developing your own 32-bit operating system" !!!
-
-
-
-
Re: Scrivete meglio il codice
Hai ragione perfettamente.il codice scritto oggi spreca troppe risorse... dal sistema operativo in "avanti" è un continuo spreco di risorse, ma credo proprio che la rivoluzione dovrebbe partire dal SO e, successivamente, dai programmi che girano sopra.ma credo che la direzione che si è presa è: guarda quanti bei colori! Guarda come è facile per.... ecc.-
Re: Scrivete meglio il codice
Aggiungici anche tutti gli strati di vistualizzazione e dei framework.
-
-
Re: Scrivete meglio il codice
- Scritto da: Tommaso
Invece di sprecare tempo in ricerche inutili
ricordatevi dei programmi complessi e
perfettamente funzionanti che giravano
allegramente su un 8086 con 128 K di
ram.Quoto e ci aggiungo..ottimizzare il nuovo codice per sfruttare realmente le tecnologie disponibili sarebbe un enorme passo avanti (computazione reale a 64bit, multithreading ecc.), per le cose non indispensabili dimentichiamo la compatibilità verso il basso (lasciamo tali peculiarità relegate a software e sistemi che hanno la reale necessità di mantenere tali compatibilità), essa è la vera responsabile della presenza di tutto questo marciume software che richiede sempre maggiori risorse per fare le stesse cose, talvolta facendole anche peggio e più lentamente.Come diceva Totò "è la somma che fa il totale", se posso usare un software ottimizzato con un hardware ottimizzato non solo necessito di minore potenza ma anche di minore tempo per fare le stesse cose, quindi meno stress e maggiore risparmio energetico.
-
-
siamo alla frutta...
Anziché investire in nuovi sistemi per produrre elaboratori più potenti ed allo stesso tempo precisi si pensa a come produrli più potenti ma imprecisi... inutile dire che qualora questo concetto dovesse passare nella testa dei consumatori (ma molto più probabilmente verrà accuratamente tenuto a loro nascosto) nulla impedirà ai produttori di CPU di vendere microproXXXXXri dai costi solo leggermente inferiori (per renderli più appetibili) ma la cui qualità e precisione lascerà sempre più a desiderare parandosi dietro al motto "tanto un pixel sbagliato o una cifre decimale leggermente sbagliata a chi vuoi che importa ?".-
Re: siamo alla frutta...
Non ti preoccupare, tanto sta già accadendoSai quante CPU e chip vengono venduti ugualmente difettosi Si va dal declassamento della frequenza di clock (e qui sei tranquillo) fino al bit non funzionante nel registro che attiva la funzionalità utilizzata solamente dal 2% degli utenti (se becchi questo e vuoi la funzionalità devi riportare il chip all'assistenza che poi ti verrà sostituito, ma succede poche volte)-
Re: siamo alla frutta...
- Scritto da: lubimaer
Non ti preoccupare, tanto sta già accadendo
Sai quante CPU e chip vengono venduti ugualmente
difettosi Si va dal declassamento della frequenza
di clock (e qui sei tranquillo) fino al bit non
funzionante nel registro che attiva la
funzionalità utilizzata solamente dal 2% degli
utenti (se becchi questo e vuoi la funzionalità
devi riportare il chip all'assistenza che poi ti
verrà sostituito, ma succede poche
volte)Ma che miti ti inventi? Ma che dici?-
Re: siamo alla frutta...
Per la frequenza di clock ha ragione, i vari modelli sono sostanzialmente un declassamento del più potente (sai i costi di creare una catena di produzione per ogni frequenza?) oppure il più potente con una particolare funzione disattivata. Per il bit non ho capito.-
Re: siamo alla frutta...
- Scritto da: lufo88
Per il bit non ho capito.Esiste sia per Intel che per AMD un documento scaricabile che elenca i bug conosciuti delle CPU attualmente in produzione, specificano anche i relativi workaround se non sbaglio. -
Re: siamo alla frutta...
e spesso e volentieri occultano errata gravi :D -
Re: siamo alla frutta...
quoto, di sta roba mene ha parlato anche il mio professore di elettronica, principalmente comunque si tratta della cache, i cui costi sono molto alti, anche in termini realizzativi.
-
-
-
-
-
Pensieri un pò strani
lo so che forse non centra niente con l'articolo lol ma mi è venuto in mente pensado a questo tipo di chip, ho pensato alla teoria di Einstein sulla relatività e tutti i punti sulla probabilità e sul determinismo ecc ecc ecc...e mi è venuta una domanda così per gioco, mi sono chiesto "ma un androide costruito con cip basata su questo principio probabilistico, sarebbero più human-like?", nel senso che se "pensassero" in modo probabilistico sarebbero forse più "liberi" di pensare,più umani? lo so che sono domande del cavolo ma è anche l'orario che mi fa questi effetti :/-
Re: Pensieri un pò strani
Bella domanda, non resta che provare ... -
Re: Pensieri un pò strani
Bhe in effetti non è una brutta domanda... effettivamente mi sa che l'uomo ha proprio questo chip inestato, anzi penso che l'uomo abbia il peggior chip probabilistico che ci possa essere... -
Re: Pensieri un pò strani
- Scritto da: Darkat
mi sono chiesto "ma un
androide costruito con cip basata su questo
principio probabilistico, sarebbero più
human-like?"Forse non sarà più "human-like", ma sicuramente più "woman-like" :-) -
Re: Pensieri un pò strani
wow sembra molto più interessante quel ragionamento fatto sulla logica fuzzy come l'hai detta tu O_O cioè voglio dire sarebbe più interessante costruire un computer che agisce seguendo quella logica che questa qui..almeno credo XD-
Re: Pensieri un pò strani
infatti il cervello umano usa la logica fuzzy per predire i pattern...in pratica è un misto di conoscenze esatte, analisti probabilistiche e inferenza sugli eventi futuriperò bisogna sempre notare che il cervello, come gli algoritmi numerici, è in grado di stimare l'errore, mentre i proXXXXXri proposti da questo signore non hanno la più pallida idea di dove, come, quando e di quale entità sarà l'errore
-
-
-
GPGPU
se i maggiori impieghi si immaginano nel settore della grafica, dovremo scordarci l'utilizzo delle schede come GPGPU?-
Re: GPGPU
- Scritto da: Lepaca
se i maggiori impieghi si immaginano nel settore
della grafica, dovremo scordarci l'utilizzo delle
schede come
GPGPU?Non credo.In ambito consumer, il GPGPU e' usato prevalentemente per aumentare la velocita' di certi calcoli (solitamente fisica dei videogiochi, codifica/decodifica video e applicazione filtri video). In questo ambito, la ridotta precisione non comporta problemi significativi.In ambito professionale, dove il GPGPU e' usato per velocizzare calcoli scentifici di precisione e rendering grafico. Queste applicazioni verrebbero compromesse da questi proXXXXXri "imprecisi". E' altresi' vero che per questo mercato esistono soluzioni apposite che non utilizzano le comuni schede grafiche: infatti soluzioni come Nvidia Tesla o Ati Firestream che sono schede appositamente create per il GPGPU che montano diverse GPU, ma senza avere un'uscita grafica (delle schede video usano solo il proXXXXXre). Non mi risulta quindi difficile vedere una differenziazione del mercato a seconda dell'ambito di utilizzo. -
Re: GPGPU
- Scritto da: Lepaca
se i maggiori impieghi si immaginano nel settore
della grafica, dovremo scordarci l'utilizzo delle
schede come
GPGPU?Cosi' quando prenderai gli schiaffi nei giochi online potrai dare la colpa al proXXXXXre impreciso non alla mira scarsa ... non è fantastico?-
Re: GPGPU
Cavolo si parla di pixel, è come se in quake 3 mirassi all'unghia del mignolo del piede sinistro per uccidere il tizio, cioè, mica è questione di millimetri, dove si spara si spara, che sia 1 pixel a destra o 1 pixel a sinistra mica mi cambia... basta solo che non siano 90° di differenza :D
-
-
-
fare debug sara' uno spasso...
te l'immagini fare debug, con una variabile che ad ogni lancio avra' un valore diverso?WOW... non vedo l'ora.-
Re: fare debug sara' uno spasso...
Le variabili inizializzate a caso ci possono anche stare..Ma ve lo immaginate un program counter che s'incrementa a caso??? O che non parte dal valore corretto????-
Re: fare debug sara' uno spasso...
Rabbrividisco .... -
Re: fare debug sara' uno spasso...
- Scritto da: Faceman
Le variabili inizializzate a caso ci possono
anche
stare..
Ma ve lo immaginate un program counter che
s'incrementa a caso??? O che non parte dal valore
corretto????Si parla di precisione di unita' di calcolo non di unita' funzionali essenziali. Non dovrebbe inificiare in alcun modo branch e indirizzamento, soltanto le operazioni (sia INT che FPU). Ovvio che per certe applicazioni e' soltanto deleterio, ma come cpu a basso consumo per smartphone, PDA, netbook, mediacenter ed alcune applicazioni embedded dove la precisione non e' mission critical credo che possa funzionare: l'importante e' che non comporti troppe grane per gli sviluppatori...-
Re: fare debug sara' uno spasso...
Credo anch'io che la mancata precisione andrà a colpire solo certi ambiti di calcolo. Ovvio che non può essere che se programmi un ciclo da 1 a I il chip va a zig zag tra i vari indici del ciclo. Piuttosto approssimerà la somma di valori a doppia precisione elaborate all'intero dei vari step.-
Re: fare debug sara' uno spasso...
Da tanti piccoli errori si genera un grande grande errore... -
Re: fare debug sara' uno spasso...
- Scritto da: Gdso
Da tanti piccoli errori si genera un grande
grande
errore...Tanti piccoli errori non si compensano? -
Re: fare debug sara' uno spasso...
ha involontariamente parlato dello scarto quadratico :D -
Re: fare debug sara' uno spasso...
- Scritto da: tardi per fare il log
ha involontariamente parlato dello scarto
quadratico
:DInvolontariamente?
-
-
-
-
-
icona riciclata?
eh si, mi ricordavo di questa iconahttp://punto-informatico.it/1880796/PI/News/punto-informatico-dodicesima-stagione.aspxche succede?non volete più pagare il grande Lucas?su su , in home page addirittura...-
Re: icona riciclata?
Certo che non hai niente da fare ehh..... che ti cambia se hanno riciclato un'icona....??-
Re: icona riciclata?
- Scritto da: Antonino
Certo che non hai niente da fare ehh..... che ti
cambia se hanno riciclato
un'icona....??direi che hai tanto da fare quanto me :)mi cambia che mi piace questo giornale A PARTIRE dalla home e apprezzo il lavoro di Schiavoni (infatti mi sono ricordato precisamente di QUELLA illustrazione) e mi piace vedere cosa si inventa ogni volta.vedere una riciclata così mi dispiace!e ora, A TE che cambia se a me non sta bene?e soprattutto: quanto poco hai da fare per leggere un commento su una icona, invece dell'articolo, dato che a te dell'icona non importa?-
Re: icona riciclata?
cavolate... come la risposta che hai dato ad antonio... cavolata...-
Re: icona riciclata?
- Scritto da: Nicolaus
cavolate... come la risposta che hai dato ad
antonio...
cavolata...come questa , vero Antonino? ;)(troll2)
-
-
-
-
-
Intel
Sono sempre stati avantihttp://it.wikipedia.org/wiki/Pentium_FDIV_bug(troll)(troll1)(troll2)(troll3)(troll4)-
Re: Intel
- Scritto da: Momento di inerzia
Sono sempre stati avanti
http://it.wikipedia.org/wiki/Pentium_FDIV_bug
(troll)(troll1)(troll2)(troll3)(troll4)Difatti la prima cosa che si può pensare è che la maggior prestazione (ma di quanto poi) che Intel butta sul piatto della bilancia sia imparentata con tecnologie di questo tipo; io so soltanto che i miei vari AMD sono sempre stati a dir poco perfetti, mentre spesso e volentieri ho avuto esperienza ed ho sentito dire di HW (guarda caso non AMD) che ... sballa. Che sia poi colpa della mania di tirare il collo in OC alle CPU Intel?... Se vi capita una bella videata BLU tipica dei sistemi a finestre, e poi ripartendo tutto va bene (madama la marchesa), ci tranquiliziamo subito, vero? Ma secondo voi ciò e davvero dovuto a qualche driver non aggiornato come vuol far credere M$ (in combutta con Intel, il gatto e la volpe)?-
Re: Intel
Sì e non siamo mai andati sulla luna, gli alieni ci sono, le scie chimiche sopra Santa Clara servono a controllare i dipendenti, l'aera 51 è una fabbrica d'Intel, ci sono armi di distuzione di massa a San Marino, l'LHC trasformerà la Terra in un buco nero, sta per arrivare un asteroide che ci annienterà tutti, nel 2012 il sole diventerà una supernova e i pannelli solari diventeranno finalmente efficienti. (rotfl)-
Re: Intel
nel 2012 il sole
diventerà una supernova e i pannelli solari
diventeranno finalmente efficienti.questa mi ha fatto sganasciare ;-)-
Re: Intel
In effetti tutti gli scenziati sono concordi nel dire che nel 2012 il sole avrà la massima intensità solare... -
Re: Intel
- Scritto da: Nicolaus
In effetti tutti gli scenziati sono concordi nel
dire che nel 2012 il sole avrà la massima
intensità
solare...Stai scherzando, vero?cmq è scienziati -
Re: Intel
Beh, per quanto riguarda l'attività solare è in ritardo di un buon anno, quindi anche se il massimo era realmente previsto per il 2012 penso che si potrà aspettare il 2013. Poi resta ancora da dimostrare che il massimo del 2012~2013 sarà veramente più intenso di quello precedente, e ricordo a tutti che ce n'è uno ogni 11 anni e non mi pare che all'epoca (~2000) si parlasse di fine del mondo (o forse si? :-P) -
Re: Intel
grazzzzzzieeee -
Re: Intel
tutti tutti tutti ma proprio tutti?
-
-
Re: Intel
- Scritto da: Gombloddo
nel 2012 il sole diventerà una supernova
e i pannelli solari diventeranno finalmente efficienti.
(rotfl)Non vedo l'ora, così ci possiamo liberare del petrolio:(rotfl)
-
-
Re: Intel
- Scritto da: rockroll
- Scritto da: Momento di inerzia
Sono sempre stati avanti
http://it.wikipedia.org/wiki/Pentium_FDIV_bug
(troll)(troll1)(troll2)(troll3)(troll4)
Difatti la prima cosa che si può pensare è che la
maggior prestazione (ma di quanto poi) che Intel
butta sul piatto della bilancia sia imparentata
con tecnologie di questo tipo; io so soltanto che
i miei vari AMD sono sempre stati a dir poco
perfetti, mentre spesso e volentieri ho avuto
esperienza ed ho sentito dire di HW (guarda caso
non AMD) che ... sballa. Che sia poi colpa della
mania di tirare il collo in OC alle CPU Intel?...
Se vi capita una bella videata BLU tipica dei
sistemi a finestre, e poi ripartendo tutto va
bene (madama la marchesa), ci tranquiliziamo
subito, vero? Ma secondo voi ciò e davvero dovuto
a qualche driver non aggiornato come vuol far
credere M$ (in combutta con Intel, il gatto e la
volpe)?Ho usato 2 anni intel, poi per 4 sono passato ad amd. Sono felice di essere tornato a intel. Ah qui nessun blue screen da 2 anni a questa parte, sarà che uso drivers stabili invece che ammazzarmi di beta ultime release?-
Re: Intel
- Scritto da: Faustino
[...]
Ho usato 2 anni intel, poi per 4 sono passato ad
amd.
Sono felice di essere tornato a intel.
[...]Mah, io ho usato per 7 anni Intel, poi sono passato ad Amd e dopo 6 anni sono tornato ad Intel.Ora, dopo due anni di Intel, sono tentato di tornare ad Amd: Intel e' stata una grossa delusione...
-
-
Re: Intel
semmai è il contrario....
-
-
Re: Intel
Ciao Momento di inerzia !
Sono sempre stati avanti
http://it.wikipedia.org/wiki/Pentium_FDIV_bugAH !Mi hai anticipato !!! :-)http://www.netjeff.com/humor/item.cgi?file=PentiumJokes ;) :o ;) :o ;) :o ... :| !
-
-
ben sperare !?
"il fatto che i risultati ottenuti sperimentalmente abbiano superato le aspettative teoriche da lui stesso calcolate, fa ben sperare per il prosieguo di questa promettente ricerca."se nemmeno lui aveva calcolato bene la probabilità di aver sucXXXXX, siamo a posto!-
Re: ben sperare !?
- Scritto da: Glock
"il fatto che i risultati ottenuti
sperimentalmente abbiano superato le aspettative
teoriche da lui stesso calcolate, fa ben sperare
per il prosieguo di questa promettente
ricerca."
se nemmeno lui aveva calcolato bene la
probabilità di aver sucXXXXX, siamo a
posto!mah, anche einstein disse una cosa del genere... -
Re: ben sperare !?
- Scritto da: Glock
"il fatto che i risultati ottenuti
sperimentalmente abbiano superato le aspettative
teoriche da lui stesso calcolate, fa ben sperare
per il prosieguo di questa promettente
ricerca."
se nemmeno lui aveva calcolato bene la
probabilità di aver sucXXXXX, siamo a
posto! Io mi spiego la cosa: da un punto di vista matematico si può calcolare con che grado di probabilità l'errore stia in un range accettabile, ed ovviamente si garantisce la situazione meno favorevole, ma ciò non toglie che più il risultato si avvicina al valore esatto, più esso è probabile (curva a campana di Gauss), addirittura la massima probabilità è proprio sul risultato esatto: ciò comporta che in situazioni di utilizzo pratico l'errore sia molto spesso molt ma molto più piccolo di quanto garantito ed in definitiva paventato.-
Re: ben sperare !?
- Scritto da: rockroll
...ciò comporta che in situazioni
di utilizzo pratico l'errore sia molto spesso
molt ma molto più piccolo di quanto garantito ed
in definitiva
paventato.E quindi si possono costruire chip probabilistici ancora più performanto e più risparmiosi accettando un degrado della qualità poco percettibile. In particolare i lettori mp3 e i riproduttori video saranno i primi a consumare pochissima energia con questi chip (non si chiameranno più microproXXXXXri?).
-
-
Re: ben sperare !?
approssimativamente :-D -
Re: ben sperare !?
aveva fatto i calcoli col suo chip...
-