Perché non ci insegnano a cercare online?

di Mauro Lupi - Ma quale ricerca avanzata? Semmai gli strumenti messi in campo dai motori per una ricerca più precisa facilitano la vita, di certo non la complicano. Ma li usano in pochi, e loro lo sanno. E ci guadagnano

Roma – Ogni tanto qualcuno prova a mettere ordine tra le innumerevoli e poco conosciute modalità di interrogare i motori di ricerca. Ad esempio Grey Hat SEO , che sul suo blog descrive molto bene le utilissime funzioni per cercare dentro Google in modo più efficiente rispetto al semplice uso di chiavi di ricerca generiche.

Sono istruzioni semplici che spesso abbreviano decisamente il percorso per arrivare ai siti che si conta di trovare. Ad esempio “~albergo trastevere” considera anche i sinonimi della parola “albergo” (“hotel”, ecc.), oppure “youtube site:myspace.com” che cerca la parola “youtube” solo all’interno di siti su myspace.com.

Il fatto interessante è che è possibile utilizzare gran parte di queste funzioni mediante quella che i motori di ricerca chiamano, in genere, “Ricerca avanzata”. A me sembra un evidente controsenso, che peraltro dura ormai da quando esistono i search engine. Al contrario, sarebbe opportuno identificare tali funzioni come “Ricerca facilitata” perché in fondo di questo si tratta. Difatti, nella pagina “Ricerca avanzata” ci sono riquadri già pronti dove si possono impostare numerosi parametri senza doversi ricordare altre istruzioni (quelle si, “avanzate”). Ad esempio si può identificare solo un tipo di documento (PDF, Word ecc.), è possibile limitare la ricerca alle pagine aggiornate negli ultimi 3 mesi, si può optare per una determinata lingua, scegliere i risultati in base alla licenza di utilizzo, e così via.

Se chiedete ai motori di ricerca quanti sono gli utenti che usano la “Ricerca avanzata”, la risposta non può che risultare ovvia: pochi. Ed è evidente che sia così. Chi ce lo fa fare a complicarci la vita? “Ricerca avanzata” sembra proprio condurci verso lidi complessi, in cui è lecito aspettarsi tecnicismi e sofisticazioni.

Quando Microsoft applicò la sua tecnologia a MSN Search, quella che era “Advanced Search” diventò “Search Builder”, frutto anche di una discussione a Seattle tra il team di MSN ed un gruppo di esperti di cui facevo parte (denominata Search Champs). Ora invece che è diventato “Live Search”, questa funzione è scomparsa del tutto.

In effetti, fino a qualche anno fa queste pagine tentavano di spiegare agli utenti cose come le “funzioni booleane” e gli operatori AND e OR. Penso ad esempio ad Altavista i cui parametri avanzati consentivano di dettagliare la ricerca in maniera molto sofisticata. Se non altro, Altavista ebbe il merito di stampare migliaia di volumetti molto ben fatti, distribuiti anche nelle scuole, in cui diligentemente si spiegavano non solo le funzioni del motore di ricerca, ma più in generale “come trovare le informazioni”.

Ecco, questo è il punto: a me sembra assurdo relegare delle funzioni che facilitano le ricerche, in una pagina chiamata “Ricerca avanzata” la quale, con questo nome, sembra proprio volerne scoraggiare la consultazione. Eppure il crescente problema di chiunque usi la Rete è proprio quello di riuscire a filtrare la quantità enorme e crescente dei contenuti disponibili online, tanto da sollevare il problema del “digital divide” non più solo in riferimento a chi usa il PC o internet e chi no, ma tra chi trova le informazioni “giuste” e chi invece rimane sommerso dal “rumore” conseguente all’entità dei contenuti digitali sul web. A tal proposito si veda anche il mio post Il sapere: vattelo a cercare! che prende spunto da un’acuta riflessione pubblicata da mini-marketing .

A questo punto viene un sospetto: siamo proprio sicuri che ai motori di ricerca interessi proprio tanto aiutare le persone a saper cercare? In effetti le analisi sull’uso dei motori di ricerca, ci dicono proprio che, a fronte di un risultato non pertinente, i navigatori rimangono sullo stesso sito cambiando la chiave di ricerca. Quindi in fondo, allungando di un po’ la permanenza sul sito, non si penalizza più di tanto l’esperienza di navigazione, mentre invece aumentano le probabilità che l’utente incroci un contenuto pubblicitario.

Oltre a ciò, mi sembra che l’orientamento prevalente sia piuttosto quello di intuire i siti effettivamente cercati dalle persone e di predisporre delle risposte mirate. Un modo quindi, per tenere le redini dei risultati piuttosto che insegnare a cavalcare, pardon, a cercare. Ci viene detto spesso che l’utente è pigro, va nel box di ricerca e scrive la prima parola che gli salta in mente. Sicuramente è così per una gran parte degli internauti. Ma i motori di ricerca cosa stanno facendo per aumentare le conoscenze degli utenti? Ah, sì, c’è la “Ricerca avanzata”.

Mauro Lupi
Mauro Lupi Blog

Nota: Mauro Lupi è co-fondatore e presidente di Ad Maiora

La tua email sarà utilizzata per comunicarti se qualcuno risponde al tuo commento e non sarà pubblicato. Dichiari di avere preso visione e di accettare quanto previsto dalla informativa privacy

  • Anonimo scrive:
    sarà qualunquismo...
    però, a parte ovvie eccezioni, io vedo hardware che non reggono.in fondo il 90% degli utenti usa posta elettronica, office, un po' di multimedialità.cose che non dovrebbero richiedere granchè, eppure i rallentamenti, anche coi migiori processori, sono all'ordine del giorno. e quando uno lavora se ne accorge parecchio.solo con gli ultimi dual core si vedono dei windows xp andare finalmente VELOCI: veloce significa che non devi aspettare mezzo secondo perché si apra una cartella o il pulsante start...è indecente, imho, che proprio ora esca Vista, un sistema operativo pesantissimo, proprio ora che i processori cominciavano ad esserne all'altezza.poi che l'hardware sia all'altezza (anzi molto oltre) e xp sia un inutile mangiarisorse è un altro discorso.però che tristezza.
  • Anonimo scrive:
    Link dall'autore
    http://uk.theinquirer.net/?article=36144
  • Anonimo scrive:
    Re: La solita storia
    I MHz contano pochissimo per valutare la potenza di calcolo di un processore.Conta su tutto l'architettura e la tecnologia utilizzata.Vi invito a tal proposito a valutare le capacita' di un Power2 o del Parisc di riferimento in quel periodo,cosa riuscivano a fare con molti meno megaherz rispetto la concorrenza.Attualmente le CPU sono diventate estremamente complesse quindi la differenziazione fra' RISC e CISC non esiste praticamente piu' (Athlon si dice assomigli molto ad Alpha),tuttavia la semplicita' di design tipica dei RISC e' ancora sinonimo di efficienza.In questo Intel ha dimostrato di essere sempre un gradino sotto tutti.Con l'architettura Core2 sembra aver fatto finalmente qualcosa di buono.Vedremo in futuro se sara' vero,quando anche altri avranno a disposizione quantitativi simili di cache.
  • Anonimo scrive:
    Nuovo script rating=illegibili i thread
    Ma non lo vedete ? Vi sembra ben progettato ? La grafica è troppo grande, rende i thread non facilmente leggibili, sicuramente meno leggibili di prima. Fossi in voi rivedrei la cosa perchè così si ritorna alla situazione di mesi fa in cui era impossibile seguire i thread dopo le modifiche apportate.
  • Anonimo scrive:
    il pc come un televisore: io non aspetto
    il pc come un televisore, non voglio aspettare 30 secondi quando accendo un televisore...per questo l'hardware deve essere molto piu avanti del software...non voglio aspettare 30 secondi per compilare un documento in LaTeX
  • Xedior scrive:
    ritorno al futuro...
    è un po come il discorso di è nato prima l'uovo o la gallina??.... si fa prima il software che gira sull'hardware o prima l'hardware che sfrutti il software ??(anche se all'inizio venivano fatti insieme)nei punti di svolta ci sarà chiaramente uno dei due che rimane dietro rispetto all'altro, daltronde nella realtà le due cose sono distinte... o meglio intel e microsoft cercano comunque di guardare ognuno la propria strada...dovremo metterci l'animo in pace ed aspettare che i programmatori imparino a "parallelizzarsi" un pò... dopodichè credo che un buon os e software multithreading possano soddisfare le esigenze dell'uomo del futuro che nel frattempo si è fatto crescere altre 2 braccia 2 occhi 2 orecchie 2 pa.......ora mi chiedo cosa intendeva l'autore con la frase:"Una cosa è certa: se Microsoft è diventata troppo lenta per questa partita, qualcun altro continuerà il ping pong. Intel lo ha capito, ed ha già pronta una via d'uscita."Vuole dire che intel vuole fare un sistema operativo per il grande pubblico ??bye Xed
  • Enjoy with Us scrive:
    Quad core?
    E' la sconfitta della legge di Moore, ormai da alcuni anni Intel e AMD non riescono più ad aumentare le prestazioni dei sistemi nel modo classico, cioè aumentando i megahertz, quindi non è rimasta loro che questa via (meno efficente e più costosa) per aumentare le prestazioni dei PC.Tale tecnica infatti è molto efficace se limitata alle CPU dual core, su una girerà il S.O., sull'altra l'applicativo principale, ma mostra la corda se il numero di CPU sale, in tal caso per avere effetti diventa necessario ricompilare in moldo che siano multitread le applicazioni.... campa cavallo!
  • Anonimo scrive:
    AMD, Intel mercato competitivo?
    Dovrebbe farsi un corso di economia industriale l'autore dell'articolo...si chiama duopolio quello di amd e intel! A quest'ora avremmo processori a 8 core con 16 mega di cache ciascuno a 200 $ al pezzo se questi signori non facessero un palese cartello (legale per carità)...
  • m00f scrive:
    MS lenta?
    "Una cosa è certa: se Microsoft è diventata troppo lenta per questa partita, qualcun altro continuerà il ping pong. Intel lo ha capito, ed ha già pronta una via d'uscita."Intendi dire che Apple detterà legge con i prossimi OS? :D
    • Anonimo scrive:
      Re: MS lenta?
      - Scritto da: m00f
      "Una cosa è certa: se Microsoft è diventata
      troppo lenta per questa partita, qualcun altro
      continuerà il ping pong. Intel lo ha capito, ed
      ha già pronta una via
      d'uscita."

      Intendi dire che Apple detterà legge con i
      prossimi OS?
      :Dmmmmh forse non si parlava di ueppolz 8)
      • Anonimo scrive:
        Re: MS lenta?
        Intel sviluppa l'hw dei mac quindi si parla di apple. A livello commerciale Apple è l'unica che può imporsi su Microsoft e su Windows Vista.Linux non esiste, è solamente un OS per gente con tanto tempo libero.
        • Anonimo scrive:
          Re: MS lenta?
          - Scritto da:
          Intel sviluppa l'hw dei mac quindi si parla di
          apple.

          A livello commerciale Apple è l'unica che può
          imporsi su Microsoft e su Windows
          Vista.

          Linux non esiste, è solamente un OS per gente con
          tanto tempo
          libero.In effetti non dovendosi mettere a scrostare i virus, di tempo libero ne rimane parecchio...
  • kerush scrive:
    Multi-Core e nuove architetture
    E' vero, i multicore concepiti come aggregazione di più CPU identiche nello stesso chip non rappresentano un grosso salto in avanti in termini di performances, vedi Centrino DUO etc... E' quello che si poteva ottenere già da molti anni attraverso sistemi SMP non multicore, con l'aggiunta della cache L3 condivisa e magari gli algoritmi di caching sensibilmente migliorati.Quello che però è importante sottolineare è l'avvento di nuove architetture multicore, stavolta molto innovative, come il Cell di IBM. Lì si ha un nuovo modello di multiprogrammazione, SPE come unità di calcolo (anche vettoriale nel caso del Cell) indipendenti collegate tra loro da un bus circolare bidirezionale, ognuno con cache propria. Un PowerPC per coordinare il tutto e accedere al bus di sistema.E' vero, la difficoltà di programmazione delle SPE è alta poichè è nato un nuovo set di istruzioni, ma come si potrebbe daltronde avere innovazione mantenendo la backward-compatibilty? Ogni 20 anni ci vuole uno strappo col passato, i programmatori dovrebbero recepire questo segnale e usarlo come spunto per una rinnovamento delle idee riguardo al calcolo parallelo.
    • avvelenato scrive:
      Re: Multi-Core e nuove architetture
      - Scritto da: kerush
      E' vero, i multicore concepiti come aggregazione
      di più CPU identiche nello stesso chip non
      rappresentano un grosso salto in avanti in
      termini di performances, vedi Centrino DUO etc...
      E' quello che si poteva ottenere già da molti
      anni attraverso sistemi SMP non multicore, con
      l'aggiunta della cache L3 condivisa e magari gli
      algoritmi di caching sensibilmente
      migliorati.
      Quello che però è importante sottolineare è
      l'avvento di nuove architetture multicore,
      stavolta molto innovative, come il Cell di IBM.
      Lì si ha un nuovo modello di multiprogrammazione,
      SPE come unità di calcolo (anche vettoriale nel
      caso del Cell) indipendenti collegate tra loro da
      un bus circolare bidirezionale, ognuno con cache
      propria. Un PowerPC per coordinare il tutto e
      accedere al bus di
      sistema.
      E' vero, la difficoltà di programmazione delle
      SPE è alta poichè è nato un nuovo set di
      istruzioni, ma come si potrebbe daltronde avere
      innovazione mantenendo la backward-compatibilty?
      Ogni 20 anni ci vuole uno strappo col passato, i
      programmatori dovrebbero recepire questo segnale
      e usarlo come spunto per una rinnovamento delle
      idee riguardo al calcolo
      parallelo.Non sono d'accordo, l'smp rimane imho la via prestazionale più proficua, quale vantaggio può esserci nel creare sistemi multiprocessori non simmetrici? Come compensare lo svantaggio di una programmabilità più complessa? Dirai che si evita l'eccessiva ridondanza circuitale dedicando ad ogni core scopi definiti, e quindi un'efficienza per transistor migliore, ma? Il mero vantaggio economico non c'è, è molto meglio fare la copia di quattro core, che farne otto di cui uno general purpouse e sette poco più di dsp. Risparmi - anche in termine di progettazione sw, e prestazionalmente rischi di avere all'atto pratico quasi sempre prestazioni equivalenti o maggiori, questo perché riscrivere un'appz ottimizzata per cell può non essere economicamente sostenibile.Inoltre con economie di scala produrre più volte un determinato componente lo fa costare di meno, vedi i quad core di intel, altro non sono che due dualcore nello stesso package e legati tramite il fsb.
    • rockroll scrive:
      Re: Multi-Core e nuove architetture
      - Scritto da: kerush
      E' vero, i multicore concepiti come aggregazione
      di più CPU identiche nello stesso chip non
      rappresentano un grosso salto in avanti in
      termini di performances, vedi Centrino DUO etc...
      E' quello che si poteva ottenere già da molti
      anni attraverso sistemi SMP non multicore, con
      l'aggiunta della cache L3 condivisa e magari gli
      algoritmi di caching sensibilmente
      migliorati.
      Quello che però è importante sottolineare è
      l'avvento di nuove architetture multicore,
      stavolta molto innovative, come il Cell di IBM.
      Lì si ha un nuovo modello di multiprogrammazione,
      SPE come unità di calcolo (anche vettoriale nel
      caso del Cell) indipendenti collegate tra loro da
      un bus circolare bidirezionale, ognuno con cache
      propria. Un PowerPC per coordinare il tutto e
      accedere al bus di
      sistema.
      E' vero, la difficoltà di programmazione delle
      SPE è alta poichè è nato un nuovo set di
      istruzioni, ma come si potrebbe daltronde avere
      innovazione mantenendo la backward-compatibilty?
      Ogni 20 anni ci vuole uno strappo col passato, i
      programmatori dovrebbero recepire questo segnale
      e usarlo come spunto per una rinnovamento delle
      idee riguardo al calcolo
      parallelo.Tutto vero quel che dici, salvo una considerazione logica di base: solo alcune applicazioni o meglio alcune parti di esse sono parallelizzabili.Mi spiego: un'elaborazione seriale è quella in cui ogni passo deve attendere i risultati del passo che lo precede per poter lavorare; un'eleborazione parallela è quella in cui più passi possono essere elaborati contemporaneamente perchè non hanno bisogno di attendere dati dagli altri passi che lavorano in contemporanea. Ovviamente col termine passi iniendo sequenze di istruzioni indivisibili e quindi strettamente sequenziali tra loro.Pensando alla struttura logica di programmi complessi come possono essere le applicazioni attuali, quanta parte di un'applicazione è realmente parallelizzabile? secondo me una percentuale mediamente molto bassa.E' un problema di "schedulazione" ovvero di "Pert". Non solo, ma la parallelizzatione ferma a due o max quattro passi contemporanei (dual o qaudri core), lascerebbe fuori gli altri magari numerosi passi che potrebbbero essere contemporaneamente eseguiti oltre i 2 o 4 che possono essere serviti, diminuendo ancora tale percentuale di parallelizzabilità reale. E poi, sopratutto i programmi attuali, totalmente scritti per CPU monocore, non sfrutterebbero assolutamente la parellizzabilità. E non è difficile pensare che la complessità di costruire programmi multicore sia parecchie volte superiore a quella di produrli per monocpu, come è sempre stato fino ad ora.Quello che dico vale sia per applicazioni che per software di base, sempre programmi sono, con l'aggravante che questi ultimi sono in genere di complessità superiore. Ed è impensabile creare un sistema di conversione automatica di sorgente o peggio ancora modulo assoluto (compilato) da mono a multicore. Qualcosa invece si potrebbe fare rivedendo i sorgenti, rientrando perfettamente nella loro logica totale, per applicare in essi nuove opportune istruzioni ad inizio e fine di ogni "passo", indicanti all'inizio attesa di consenso da uno o più passi precedenti, ad alla fine rilascio di consenso per uno o più passi successivi. E' un problema normalmente risolto dai prodotti di schedulazione automatica che girano nei CED, dove però, la potentisima CPU è normalmente ancora monocore, ma la potenza è tale da permettere in multitasking il "run" contemporaneo o meglio in "Time Sharing" di centinaia anzi migliaia di applicazioni complesse, i vari "JOB" che girano in contemporanea su un sisrema ad esempio IBM MVS, senza contare i sottosistemi di teleprocessing (CICS) che gestiscono ad esempio migliaia di terminali come programmi separati (ed ormai ognuno di questi terminali, printers, keyboards e monitors, è simulato proprio dai PC che conosciamo). I vari JOBs, che spesso e volentieri devono attendere i dati prodotti da jobs precedenti per poter partire, vengono in effetti schedulati come dovrebbero essere schedulati i vari passi di programma di cui ti ho sopra parlato. Ammesso e non concesso che tutto questo lavorio sui programmi verrà ub domani intrapreso, esso varrà solo per un fattore di parallelismo esiguo (al momento max 4 per quadricore) e non potrà servire le decini di passi effettivamente parallelizzabili. Questo forse sarà l'ostacolo logico principale e non suparabile in alcun modo. Per questi motivi non credo affatto che tali sistemi multicore possano essere mai sfruttati completamente nei nostri piccoli mostri: saranno piccoli mostri di cui solo un quarto di essi lavorerà davvero, con prestazioni praticamente uguali agli attuali mostriciattoli monocore. Se poi uno decide, usando programmi tradizionali monocore, di lanciare manualmente quattro applicazioni distinte ognuna su una delle quattro CPU, faccia pure, se si sente in grado di seguirli tutti contemporaneamente, ma ognuno di essi durerà non un secondo di meno di quanto durerebbe su un'attuale mediocre sistem monocore. Chi sa se sarebbe meno costoso avere a disposizioni quattro vecchi PC completi.Questo è quanto logica può far intravedere. Credo proprio che, passata la moda del momento, i sistemi multicore verranno utilizzati solo per applicazioni scientifiche ad hoc, dove il numero di processori e le loro caratteristiche saranno calibrati per le esigenze di specifiche elaborazioni parallele.
      • Anonimo scrive:
        Re: Multi-Core e nuove architetture
        Tutto molto interessante, ma avete dimenticato qualche cosa che trainera' pesantemente le nuove architetture multi-core:Media centerUn pc da qui a 2-3 anni secondo me prendera' il posto (almeno nell'utenza piu' evoluta) di tutti i vari apparecchi come lettori dvd, stereo, videoregistratori, decoder. La rete casalinga sara' il nucleo di gestione di tutte queste cosa, quindi servono macchine che non si "siedano" appena parte un gioco o una copia di un disco.Per queste cose il concetto di multicore e' l'uovo di colombo.VirtualizzazioneI piu' smanettoni faranno girare piu' sistemi operativi su una stessa macchina per evitare che applicazioni diverse possano interagire fra loro o solo per far girare S.O. diversi.Un core da assegnare per ogni macchina virtuale eleverebbe notevolmente le operazioni. Amd e Intel lo sanno e percio' hanno inserito le tecnologie di virtualizzazione in hardware.Solo gli utenti aziendali non sapranno cosa farsene, ma le dovranno comprare comunque perche' esisteranno solo cpu multicore.
        • Anonimo scrive:
          Re: Multi-Core e nuove architetture
          - Scritto da:
          Tutto molto interessante, ma avete dimenticato
          qualche cosa che trainera' pesantemente le nuove
          architetture
          multi-core:

          Virtualizzazione
          I piu' smanettoni faranno girare piu' sistemi
          operativi su una stessa macchina per evitare che
          applicazioni diverse possano interagire fra loro
          o solo per far girare S.O.
          diversi.
          Un core da assegnare per ogni macchina virtuale
          eleverebbe notevolmente le operazioni. Amd e
          Intel lo sanno e percio' hanno inserito le
          tecnologie di virtualizzazione in
          hardware.mi hai tolto le parole dalla tastiera

          Solo gli utenti aziendali non sapranno cosa
          farsene, ma le dovranno comprare comunque perche'
          esisteranno solo cpu
          multicore.non è detto che non se ne facciano nullanon tutti gli utenti aziendali usano il PC solo come macchina da scrivere
          • Anonimo scrive:
            Re: Multi-Core e nuove architetture

            non è detto che non se ne facciano nulla
            non tutti gli utenti aziendali usano il PC solo
            come macchina da
            scrivereVero. Ma sono pochi(ssimi)La maggioranza degli utenti aziendali, e sto parlando di utenti, non del gruppo IT, usano il pc per la posta, office, le suonerie dei telefonini e leggere un quotidiano online.Dato che in azienda difficilmente un utente ha privilegi di tipo administrator, non possono (e non sanno) installare programmi piu' "tosti".Naturalmente ci sono eccezioni, ma ho notato da esperienza diretta che sono meno del 10% degli utenti totali.
      • kerush scrive:
        Re: Multi-Core e nuove architetture

        Mi spiego: un'elaborazione seriale è quella in
        cui ogni passo deve attendere i risultati del
        passo che lo precede per poter lavorare;Una elaborazione sequenziale può essere 'pipelinizzata'in cell per via del bus ad anello che collega le 8 SPE, eseguendo a regime in un ottavo del tempo necessario su una cpu monocore.E' qui che l'architettura ha il suo impatto più forte: applicazioni multimediali, signal processing e applicazioni in tempo reale (il 99% delle cpu prodotte al mondo è impiegato in sistemi embedded). Tanto codice, ora firmware per FPGA, potrebbe divenire software per cell. E qui viene anche la convenienza economica...
        E poi, sopratutto i programmi attuali, totalmente
        scritti per CPU monocore, non sfrutterebbero
        assolutamente la parellizzabilità.Sono d'accordo, va da se che i programmi 'desktop' continuino la loro evoluzione sulle cpu tradizionali, sarebbe troppo complesso farne il porting.
  • Anonimo scrive:
    Multicore Inutile cn LINUX
    linux non e' capace di gestire tanta potenza per un utilizzo domestico. I computer del pinguino sono buoni solo a creare grid computer che si ricompilano il kernel a vicensa o che lanciano all'unisono porgrammi riga-comando.La verita' e' questa.(geek)
    • Anonimo scrive:
      Re: Multicore Inutile cn LINUX
      - Scritto da:
      linux non e' capace di gestire tanta potenza per
      un utilizzo domestico. I computer del pinguino
      sono buoni solo a creare grid computer che si
      ricompilano il kernel a vicensa o che lanciano
      all'unisono porgrammi
      riga-comando.
      La verita' e' questa.(geek)Che scarsi i troll ultimamente, l' N.T.O. se ne e' andato da PI ?
    • Anonimo scrive:
      Re: Multicore Inutile cn LINUX
      credo che questi nuovi processori siano stati pensati per calcolare i profitti di SCO, anche se oggi ha fatto solo un -39
  • Anonimo scrive:
    E l'FSB?
    Aumentano i core, e va bene, ma i dati da dove transitano??? Dall'FSB e che senso ha aumentare i core senza aumentare il canale su cui transitano i dati?Con 4 core è come se l'fsb fosse diviso per quattro, quando ci saranno gli 8 core verrà suddiviso per 8, e così via.Cioè avremo delle cpu che eseguono tante operazioni in parallelo, ma i dati che riceveranno saranno sempre di meno.
  • Anonimo scrive:
    La gestione del multi-core è del SO
    Secondo me la gestione della CPU è e deve essere compito solo ed esclusivamente del sistema operativo e l'applicazione deve semplicemente disinteressarsene. Mi spiego meglio: un programma, durante la sua esecuzione, genera un numero mediamente alto di jobs da far compiere alla CPU. Come e quando questi jobs vengono eseguiti sono affari del SO secondo me, quindi dovrebbe essere il SO a decidere se eseguire quei jobs su un singolo core o su venti core... quindi non capisco perché le applicazioni dovrebbero preoccuparsi dei core della cpu di sistema!
    • Anonimo scrive:
      Re: La gestione del multi-core è del SO
      tuttavia ciò non è sempre possibile, in quanto c'è la necessità per esempio di far comunicare 2 o più thread o processi e se uno è in ritardo, ritarderà anche gli altri.....ci sarebbe bisogna di informare il sistema operativo di quali sono i vincoli da rispettare...una buona soluzione in questo senso sono i SO realtime, non proprio perfetti ma di certo meglio di quelli time-sharingpoi c'è tutta una classe di applicazioni e cioè i videogiochi i quali spessissimo funzionano istanziando processi e thread e singoli e lì il sistema operativo non può farci proprio nulla...- Scritto da:
      Secondo me la gestione della CPU è e deve essere
      compito solo ed esclusivamente del sistema
      operativo e l'applicazione deve semplicemente
      disinteressarsene. Mi spiego meglio: un
      programma, durante la sua esecuzione, genera un
      numero mediamente alto di jobs da far compiere
      alla CPU. Come e quando questi jobs vengono
      eseguiti sono affari del SO secondo me, quindi
      dovrebbe essere il SO a decidere se eseguire quei
      jobs su un singolo core o su venti core... quindi
      non capisco perché le applicazioni dovrebbero
      preoccuparsi dei core della cpu di
      sistema!
    • ilgorgo scrive:
      Re: La gestione del multi-core è del SO
      - Scritto da:
      Secondo me la gestione della CPU è e deve essere
      compito solo ed esclusivamente del sistema
      operativo e l'applicazione deve semplicemente
      disinteressarsene. Mi spiego meglio: un
      programma, durante la sua esecuzione, genera un
      numero mediamente alto di jobs da far compiere
      alla CPU. Come e quando questi jobs vengono
      eseguiti sono affari del SO secondo me, quindi
      dovrebbe essere il SO a decidere se eseguire quei
      jobs su un singolo core o su venti core... quindi
      non capisco perché le applicazioni dovrebbero
      preoccuparsi dei core della cpu di
      sistema!Non credo sia corretto demandare completamente al SO la gestione dei threads.Creado che solo chi scrive l'applicazione conosce come le varie parti del progetto possano essere spezzettate per una parallela piuttosto che sequenziale (tenendo conto di tutte le problematiche di lock delle risorse richieste da una esecuzione parallela.Piuttosto, ritengo sia più opoprtuno un buon framework che aiuti nello sviluppo di applicazioni multi-threads.Saluti
      • Anonimo scrive:
        Re: La gestione del multi-core è del SO
        - Scritto da: ilgorgo
        Non credo sia corretto demandare completamente al
        SO la gestione dei
        threads.
        Creado che solo chi scrive l'applicazione conosce
        come le varie parti del progetto possano essere
        spezzettate per una parallela piuttosto che
        sequenziale (tenendo conto di tutte le
        problematiche di lock delle risorse richieste da
        una esecuzione
        parallela.
        Piuttosto, ritengo sia più opoprtuno un buon
        framework che aiuti nello sviluppo di
        applicazioni
        multi-threads.

        Salutid'accordissimo su questo commento anche perche' se a livello di programmazione non viene scritto un programma perche' funzioni in multicore demandare tutto allo scheduler non serve a niente.Da qui il senso dell'articolo che il software e' indietro perche' software che funzionino in parallelo non ce ne sono poi molti.Son d'accordissimo anche sulla creazione di framework potenti che aiutino nello sviluppo di software del genere.Sarebbero l-unico modo per arrivare ad avere + software in grado di sfruttare meglio l'hardware
    • Anonimo scrive:
      Re: La gestione del multi-core è del SO
      - Scritto da:
      Secondo me la gestione della CPU è e deve essere
      compito solo ed esclusivamente del sistema
      operativo e l'applicazione deve semplicemente
      disinteressarsene. Mi spiego meglio: un
      programma, durante la sua esecuzione, genera un
      numero mediamente alto di jobs da far compiere
      alla CPU. Come e quando questi jobs vengono
      eseguiti sono affari del SO secondo me, quindi
      dovrebbe essere il SO a decidere se eseguire quei
      jobs su un singolo core o su venti core... quindi
      non capisco perché le applicazioni dovrebbero
      preoccuparsi dei core della cpu di
      sistema!Non tutte gli algoritmi sono parallelizzabili in automatico.
  • Anonimo scrive:
    Seminario a UPC, Barcellona
    http://research.ac.upc.edu/HPCseminar/SEM0607/abs.html#Exploiting_Multiple_Cores_Now._Scalability_and_Reliability_for_Off-the-shelf_Software
  • Anonimo scrive:
    Dove sta il buco?
    Magari non avendo mai programmato a basso livello, a livello di OS per intenderci, quel che dirò potrà esser letto come un'eresia da chi ha avuto il piacere di farlo, ma magari anche no.Mi chiedo se sia così corretto, dopotutto, chiedere a chi sviluppa SW in questi tempi di multi-core-mania di trovare lui un sistema per sfruttare appieno i vantaggi di questa architettura. O se, piuttosto, come è sempre stato fatto (e con vantaggi innegabili) non debba essere l'OS, e chi lo sviluppa, a "litigare" con le caratteristiche fisiche dell'HW su cui gira, e preoccuparsi di fornire uno strato SW (layer) che permetta a chi sviluppa al piano superiore di astrarsi da tutto ciò. Del resto, questo tipo di approccio, "a cipolla", è quello che decretato il successo del TCP/IP, e quindi che ci ha regalato una rete di comunicazione mondiale... io dubito che oggi avremmo il mondo luccicante di Internet come lo conosciamo se non fosse stato seguito il modello ISO/OSI... se ogni piccolo programmatore che avesse avuto l'intenzione di sviluppare un misero strumentino di chatting avesse dovuto confrontarsi con i problemi dello strato fisico della rete, risolvere i problemi di attenuazione del segnale, etc.
    • Anonimo scrive:
      Re: Dove sta il buco?
      nel campo dell'informatica si è sempre cercato di delegare i dettagli hardware al sistema operativo o ancora meglio al firmware.....questo non sempre è possibile....il SO può sapere che esistono 4 core, può pensare di distribuire su questi 4 core i processi da eseguire....il punto è che quando 2 o più processi hanno necessità di scambiarsi dati, dev'essere per forza chi li istanzia a stabilire chi ha priorità sugli altri, altrimenti il vantaggio dell'avere più core va a farsi friggere.....è ovvio che però il software applicativo ha solo un'idea "logica" riguardo i vari core.....sa che esistono e sa che può trarne vantaggio, ma tutti i dettagli sono ancora competenza dell'OS- Scritto da:
      Magari non avendo mai programmato a basso
      livello, a livello di OS per intenderci, quel che
      dirò potrà esser letto come un'eresia da chi ha
      avuto il piacere di farlo, ma magari anche
      no.
      Mi chiedo se sia così corretto, dopotutto,
      chiedere a chi sviluppa SW in questi tempi di
      multi-core-mania di trovare lui un sistema per
      sfruttare appieno i vantaggi di questa
      architettura. O se, piuttosto, come è sempre
      stato fatto (e con vantaggi innegabili) non debba
      essere l'OS, e chi lo sviluppa, a "litigare" con
      le caratteristiche fisiche dell'HW su cui gira, e
      preoccuparsi di fornire uno strato SW (layer) che
      permetta a chi sviluppa al piano superiore di
      astrarsi da tutto ciò. Del resto, questo tipo di
      approccio, "a cipolla", è quello che decretato il
      successo del TCP/IP, e quindi che ci ha regalato
      una rete di comunicazione mondiale... io dubito
      che oggi avremmo il mondo luccicante di Internet
      come lo conosciamo se non fosse stato seguito il
      modello ISO/OSI... se ogni piccolo programmatore
      che avesse avuto l'intenzione di sviluppare un
      misero strumentino di chatting avesse dovuto
      confrontarsi con i problemi dello strato fisico
      della rete, risolvere i problemi di attenuazione
      del segnale,
      etc.
      • Anonimo scrive:
        Re: Dove sta il buco?
        - Scritto da:

        nel campo dell'informatica si è sempre cercato di
        delegare i dettagli hardware al sistema operativo
        o ancora meglio al
        firmware.....

        questo non sempre è possibile....

        il SO può sapere che esistono 4 core, può pensare
        di distribuire su questi 4 core i processi da
        eseguire....

        il punto è che quando 2 o più processi hanno
        necessità di scambiarsi dati, dev'essere per
        forza chi li istanzia a stabilire chi ha priorità
        sugli altri, altrimenti il vantaggio dell'avere
        più core va a farsi
        friggere.....

        è ovvio che però il software applicativo ha solo
        un'idea "logica" riguardo i vari core.....sa che
        esistono e sa che può trarne vantaggio, ma tutti
        i dettagli sono ancora competenza
        dell'OS
        Secondo me è corretto che siano gli strati sotto a risolvere i problemi di comunicazione tra i vari core, memoria cache condivisa o quant'altro esiste a livello hardware, dovrebbero essere sfruttati per presentare al SW al livello superiore un unica muscolosa CPU virtuale, che mi frega di quanti core ci sono dietro? Esempio banale, ma magari serve, quando viene costruita una macchina, chi costruisce la trasmissione, albero motore, etc, ha solo la necessità di conoscere le caratteristiche fisiche esterne del motore, come è fatto il pignone dove attaccare la cinghia, e quanta potenza il motore il motore è in grado di sprigionare, senza sapere se questa potenza viene generata da 3, 4, o 6 pistoni che pompano nei rispettivi cilindri.Poi è vero che in questo caso chi progetta le queste due parti lavorano in stretta collaborazione, per la stessa azienda, e nel caso dell'informatica così non è, ma la filosofia object oriented è però fortemente radicata in questo mondo, e funziona proprio così.
        - Scritto da:

        Magari non avendo mai programmato a basso

        livello, a livello di OS per intenderci, quel
        che

        dirò potrà esser letto come un'eresia da chi ha

        avuto il piacere di farlo, ma magari anche

        no.

        Mi chiedo se sia così corretto, dopotutto,

        chiedere a chi sviluppa SW in questi tempi di

        multi-core-mania di trovare lui un sistema per

        sfruttare appieno i vantaggi di questa

        architettura. O se, piuttosto, come è sempre

        stato fatto (e con vantaggi innegabili) non
        debba

        essere l'OS, e chi lo sviluppa, a "litigare" con

        le caratteristiche fisiche dell'HW su cui gira,
        e

        preoccuparsi di fornire uno strato SW (layer)
        che

        permetta a chi sviluppa al piano superiore di

        astrarsi da tutto ciò. Del resto, questo tipo di

        approccio, "a cipolla", è quello che decretato
        il

        successo del TCP/IP, e quindi che ci ha regalato

        una rete di comunicazione mondiale... io dubito

        che oggi avremmo il mondo luccicante di Internet

        come lo conosciamo se non fosse stato seguito il

        modello ISO/OSI... se ogni piccolo programmatore

        che avesse avuto l'intenzione di sviluppare un

        misero strumentino di chatting avesse dovuto

        confrontarsi con i problemi dello strato fisico

        della rete, risolvere i problemi di attenuazione

        del segnale,

        etc.
  • Anonimo scrive:
    Re: Che lavori un po' con i programmi ve
    - Scritto da:
    Caro Domizio, ti inviterei ad utilizzare più a
    fondo software di rendering 3D come Bryce, per
    renderti conto a cosa servano i nuovi processori.Bryce sfrutta il dualcore?
  • Anonimo scrive:
    GNUCC OBSOLETO
    scarsamente ottimizzato per i nuovi processori, tant'e' che i programmi compilati per athlon 64 bit consumano molti cicli di cpu in piu' rispetto agli analoghi x86.(anonimo)(anonimo)(anonimo)(anonimo)gncc compilera'pure per una moltitudine di processori diversi, ma la reattivita' dell'eseguibile spesso lascia a desiderare. Senza il contributom apple non sarebbe stato ing rado di sfruttare i nuovi multicore. (anonimo)(anonimo)(anonimo)(anonimo)(anonimo)
    • Anonimo scrive:
      Re: GNUCC OBSOLETO
      beh i compilatori GNU sono i migliori che ci sono in giro.....è ovvio che vivono di contributi come tutto il software opensource del resto, quindi il contributo di Apple ( che poi è conveniente per Apple stesso ) non dev'essere visto come una cosa eccezionale......- Scritto da:
      scarsamente ottimizzato per i nuovi processori,
      tant'e' che i programmi compilati per athlon 64
      bit consumano molti cicli di cpu in piu' rispetto
      agli analoghi
      x86.
      (anonimo)(anonimo)(anonimo)(anonimo)

      gncc compilera'pure per una moltitudine di
      processori diversi, ma la reattivita'
      dell'eseguibile spesso lascia a desiderare.
      Senza il contributom apple non sarebbe stato ing
      rado di sfruttare i nuovi multicore.
      (anonimo)(anonimo)(anonimo)(anonimo)(anonimo)
    • Anonimo scrive:
      Re: GNUCC OBSOLETO
      Bhe un fondo di verita' purtroppo esiste.La tecnologia dei processori e' talmente spinta che oggi esiste un divario molto grande fra le capacita' di ottimizzazione dei compilatori OpenSource rispetto ai proprietari.Non ho i dati sottomano,ma vi posso assicurare che ho benchmarkando un P4 Prescott con Linux e UnixBench,il compilatore Intel era fra 1,3 e 1,9 volte piu' veloce del gcc di riferimento.Insomma possiamo disquisire sulla bonta' dei test o del mio test in questo caso,tuttavia il gcc continua ad essere piuttosto lento,nonostante le promesse della serie 4.x.
      • Anonimo scrive:
        Re: GNUCC OBSOLETO
        - Scritto da:
        Bhe un fondo di verita' purtroppo esiste.La
        tecnologia dei processori e' talmente spinta che
        oggi esiste un divario molto grande fra le
        capacita' di ottimizzazione dei compilatori
        OpenSource rispetto ai proprietari.Non ho i dati
        sottomano,ma vi posso assicurare che ho
        benchmarkando un P4 Prescott con Linux e
        UnixBench,il compilatore Intel era fra 1,3 e 1,9
        volte piu' veloce del gcc di riferimento.Insomma
        possiamo disquisire sulla bonta' dei test o del
        mio test in questo caso,tuttavia il gcc continua
        ad essere piuttosto lento,nonostante le promesse
        della serie
        4.x.Trovaci i bech che mi interessano, grazie, domani dall'ufficio magare ne parliamo.
  • Anonimo scrive:
    E cioè?
    "Una cosa è certa: se Microsoft è diventata troppo lenta per questa partita, qualcun altro continuerà il ping pong. Intel lo ha capito, ed ha già pronta una via d'uscita"E sarebbe? non ho capito....
    • Anonimo scrive:
      Re: E cioè?
      http://punto-informatico.it/pms.aspx?id=1785321&m_id=1792782&r=PI
    • Anonimo scrive:
      Re: E cioè?
      un esempio per tutti, il supporto EFI per le architetture x86 che ormai è integrato ovunque, in Vista non sarà presente.....Microsoft non è in grado di evolvere il proprio software ed è rimasta indietro.....Linux si è adattato a tutte le piattaforme, addirittura è l'unico OS a girare su Cell- Scritto da:
      "Una cosa è certa: se Microsoft è diventata
      troppo lenta per questa partita, qualcun altro
      continuerà il ping pong. Intel lo ha capito, ed
      ha già pronta una via
      d'uscita"


      E sarebbe? non ho capito....
  • Anonimo scrive:
    mmhh...
    Ma la "via di uscita" con cui si chiude l'articolo è google o apple?
    • Anonimo scrive:
      Re: mmhh...
      (rotfl) Ma sai che mi chiedevo la stessa cosa? Ha fatto il finale aperto come nei film!Credo però intendesse più Apple. Per noi non cambia molto, dobbiamo solo girare il sederino da un'altra parte. ;)
    • Anonimo scrive:
      Re: mmhh...
      Google di certo no, hanno sempre detto di non essere interessati agli OS....tuttavia faccio notare che esiste anche Linux e a dispetto di quanto molti vogliano dire, è pronto per il desktop ( almeno SuSE, Ubuntu e Mandriva lo sono )......lo uso da ormai un anno e francamente non mi mancano nè windows nè macos- Scritto da:
      Ma la "via di uscita" con cui si chiude
      l'articolo è google o
      apple?
    • Anonimo scrive:
      Re: mmhh...
      - Scritto da:
      Ma la "via di uscita" con cui si chiude
      l'articolo è google o
      apple?aridajeee!nessuno dei due !cuntent? @^
  • Anonimo scrive:
    CPU Multicore:i benefici dell'opensource
    l'articolo denuncia la disparità tra la potenza di calcolo messa a disposizione oggi dalle nuove cpu e il software che essendo in una situazione piu stagnante (dovuta al monopolio MS) non ne gode immediatamente dei benefici... non scordiamoci che esiste l'opensource, ad esempio il mondo GNULinux è pronto per queste tecnologie, e offre strumenti che oggi sempre piu persone voglio mettere nel proprio pc di casa (uno tra tanti: virtualizzazione). Aggiungo che se il monopolista in questione non si adegua per tempo ai cambiamenti HW è possibile che perda quote di mercato... piu persone usano GNULinux e sempre maggiori saranno i benefici.
    • Anonimo scrive:
      Re: CPU Multicore:i benefici dell'openso
      il problema è che il 90% degli utilizzatori di PC vivono in una cronica ignoranza....a loro non interessano cose come il multicore ecc....per loro il computer è una scatoletta grigia per guardare i DVD, i video porno e chattare....gli unici a poter cambiare questo stato di cose sono gli smanettoni dei videogames, perchè sono gli unici ad avere una reale e costante necessità di sempre maggiore potenza di calcolo....i videogiochi sono la killer app per il dominio di linux nel mondo desktop.....del resto la storia dell'home computing è cominciata proprio dai videogamesdal punto di vista tecnico l'unico OS che sfrutta appieno il multicore è Linux, c'è poco da fare....MacOS è bello ma molto carente sul lato prestazionale.....- Scritto da:
      l'articolo denuncia la disparità tra la potenza
      di calcolo messa a disposizione oggi dalle nuove
      cpu e il software che essendo in una situazione
      piu stagnante (dovuta al monopolio MS) non ne
      gode immediatamente dei benefici... non
      scordiamoci che esiste l'opensource, ad esempio
      il mondo GNULinux è pronto per queste
      tecnologie, e offre strumenti che oggi sempre piu
      persone voglio mettere nel proprio pc di casa
      (uno tra tanti: virtualizzazione).

      Aggiungo che se il monopolista in questione non
      si adegua per tempo ai cambiamenti HW è possibile
      che perda quote di mercato... piu persone usano
      GNULinux e sempre maggiori saranno i
      benefici.
      • Anonimo scrive:
        Re: CPU Multicore:i benefici dell'openso
        - Scritto da:
        i videogiochi sono la killer app per il dominio
        di linux nel mondo desktop.....sante parole....
      • Anonimo scrive:
        Re: CPU Multicore:i benefici dell'openso

        dal punto di vista tecnico l'unico OS che sfrutta
        appieno il multicore è Linux, c'è poco da
        fare....MacOS è bello ma molto carente sul lato
        prestazionale.....Si e No.Cioe' Mach il kernel di OSX e' l'evoluzione di quel microkernel nato a meta' degli anni '80 alla Carnegie Mellon University che in seguito equipaggio' fior fiore di Unix come OSF/1 e BSD.Il kernel era stato pensato fin dall'inizio per un ottimo supporto al multiprocessore e sistemi distribuiti.Mach di fatto offre una buona scalabilita',peccato che le prestazioni continuino ad essere disastrose rispetto ai monolitici.Quindi supporto pieno al multicore ma prestazioni inferiori in termini di pura velocita'.
    • Anonimo scrive:
      Re: CPU Multicore:i benefici dell'openso
      anche a me pare che la virtualizzazione ne tragga un grande vantaggio.
  • Anonimo scrive:
    Normale computer con 1 finestra aperta
    30 processi circa in esecuzione. Processi, non task, che sono in numero maggiore. L'obiezione sull'inutilità del processore multicore perché i programmi sono monotask direi che non regge.
    • The Raptus scrive:
      Re: Normale computer con 1 finestra aper
      Quaoto e straquoto.Anche se il multicore, per processi in backgroun è superfluo, chi ha necessità di processi paralleli è solo uno scorso 5% del parco macchine.Del restante,. il 90% fa un semplice office automantio, e per questi 1GHz è sufficiente.Saluti
      • Alessandrox scrive:
        Re: Normale computer con 1 finestra aper
        - Scritto da: The Raptus
        Quaoto e straquoto.

        Anche se il multicore, per processi in backgroun
        è superfluo, chi ha necessità di processi
        paralleli è solo uno scorso 5% del parco
        macchine.

        Del restante,. il 90% fa un semplice office
        automantio, e per questi 1GHz è
        sufficiente.Per un Wp?glie ne avanzano 900Mhz...
    • Anonimo scrive:
      Re: Normale computer con 1 finestra aper
      - Scritto da:
      30 processi circa in esecuzione. Processi, non
      task, che sono in numero maggiore. L'obiezione
      sull'inutilità del processore multicore perché i
      programmi sono monotask direi che non
      regge.http://www.punto-informatico.it/pm.aspx?m_id=1794594&id=1785321&r=PI
  • Anonimo scrive:
    Tristemente vero...
    E' tristemente vero.Nascono le prime cpu quad-core e non abbiamo ancora programmi (tolti rari casi) che sfruttino a dovere i dual-core (che sono a mio avviso del tutto superflui ora come ora per chi non usa programmi specifici che necessitino di grande potenza di calcolo ...)Cosa serve avere quattro core cazzutissimi pronti a macinare moli di dati quando l'utonto medio usa si e no Office, Msn, Explorer e Outlook ?Cosa serve averne due?Anche uno e' di troppo molto spesso...Sono conivinto che per 80% della gente che usa un pc un k6 II 350 basterebbe e forse avanzerebbe persino qualcosina...
    • Anonimo scrive:
      Re: Tristemente vero...
      Non è vero niente.350 son troppo pochissimial momento la freq minima è 2.0 ghz
      • TeX scrive:
        Re: Tristemente vero...
        - Scritto da:
        Non è vero niente.
        350 son troppo pochissimi

        al momento la freq minima è 2.0 ghzInteressante... si da il caso che io ti sto proprio scrivendo da una macchina a 350 MHz (un Pentium II per la precisione...) e ci faccio praticamente tutto quello che mi serve a casa: internet, email, scrittura testi, qualche foglio elettronico, riproduzione musica, elaborazione e visione di foto, un po' di programmazione. Riesco pure a scaricare i video ripresi con la mia videocamera MiniDV e a convertirli in DivX (ho qualche problema a riprodurli, ma li masterizzo e li vedo dal TV tramite il lettore DVD). E questo sia da Linux che da Windows. Certo che Linux l'ho dovuto ottimizzare un po', mentre Windows è una versione un po' datata (ma ancora supportata...). Insomma ci faccio tutto quello che mi serve, e questo è il motivo per il quale non mi sono ancora deciso a cambiarlo, ma mi sono limitato a qualche aggiornamento nel corso degli anni. Attualmente infatti ha 320 MB di RAM, 3 HD interni (due vecchi da 6.4 GB e 20 GB per Windows e che si spengono quando inutilizzati più un 80 GB per Linux) più un 250 GB esterno su Firewire per archiviazione e backup. Come monitor uso un 19" da 1280x1024 che viene supportato senza problemi.A lavoro uso un Athlon 64 3200+, con XP Pro. Indubbiamente è più veloce, ma francamente, probabilmente anche al fatto che è un po' sottodimensionato come RAM (512 MB), non lo trovo poi così incredibilmente più reattivo rispetto al mio con Linux.Questo per dire che con una macchina vecchiotta ci si può ancora fare molto, basta non farsi fregare dai software ricchi di effetti speciali inutili e magari scritti senza pensare alle risorse impiegate.
      • Anonimo scrive:
        Re: Tristemente vero...

        al momento la freq minima è 2.0 ghzE' quello che ti vogliono fare credere perche' ti assicuro che per chi ha solo richieste base (internet, messaggistica, posta, word + excel) basta moooooooooooolto meno che un 2ghz.Mia madre usa un portatile munito di un vetusto Celeron , 128 mega di ram e scheda video integrata intel e lavora tranquillamente con Word, con Excel, usa firefox per navigare e thunderbird per scaricare la posta tutto sotto Windows98se.
  • Anonimo scrive:
    A me basta che consumino MENO
    Sarei soddisfatto... altro che potenza di calcolo...
    • ilgorgo scrive:
      Re: A me basta che consumino MENO
      - Scritto da:
      Sarei soddisfatto... altro che potenza di
      calcolo...Allora il Quad FX di AMD fa per te (rotfl)
    • Anonimo scrive:
      Re: A me basta che consumino MENO
      - Scritto da:
      Sarei soddisfatto... altro che potenza di
      calcolo...Concordo, aspetto con ansia che AMD passi ai 65nm e spero che ora che si è fusa con ATI facciano anche un bel Radeon Low Power a 65nm.
  • TADsince1995 scrive:
    I Videogiochi
    Lo ha detto la stessa AMD qualche anno fa. I videogiochi sono l'unica vera spinta all'aumento di performance di cpu e componenti vari del PC.Fino a qualche anno fa poteva avere senso, ma ormai anche il più economico dei cassoni acer da supermarket è perfettamente in grado di assolvere alle esigenze dell'utenza comune.La potenza estrema, ad esclusione di particolari applicazioni (tipo rendering 3d, videomontaggio e audio editing professionale ecc, un tempo relegate a macchine ad hoc come ad esempio Silicon Graphics e di certo non diffuse tra i vari "Joe User") serve solo a una cosa: giocare.TAD
    • avvelenato scrive:
      Re: I Videogiochi
      - Scritto da: TADsince1995
      Lo ha detto la stessa AMD qualche anno fa. I
      videogiochi sono l'unica vera spinta all'aumento
      di performance di cpu e componenti vari del
      PC.

      Fino a qualche anno fa poteva avere senso, ma
      ormai anche il più economico dei cassoni acer da
      supermarket è perfettamente in grado di assolvere
      alle esigenze dell'utenza
      comune.

      La potenza estrema, ad esclusione di particolari
      applicazioni (tipo rendering 3d, videomontaggio e
      audio editing professionale ecc, un tempo
      relegate a macchine ad hoc come ad esempio
      Silicon Graphics e di certo non diffuse tra i
      vari "Joe User") serve solo a una cosa:
      giocare.

      TADMa neanche.Se vai a vedere i test, sono davvero pochi i videogiochi dove un qualsiasi sistema entry-level non garantisca le prestazioni minime. E anche lì, i requisiti per quanto concerne la cpu sono molto più spostati verso il lo-end del mercato che in passato!Adesso conta molto di più avere una scheda video all'altezza. Inutile dire che i quad core sono sprecati anche coi videogiochi, a meno di non avere esigenze particolari (es: rendering 3d mentre si gioca....).
      • TADsince1995 scrive:
        Re: I Videogiochi

        Ma neanche.
        Se vai a vedere i test, sono davvero pochi i
        videogiochi dove un qualsiasi sistema entry-level
        non garantisca le prestazioni minime. E anche lì,
        i requisiti per quanto concerne la cpu sono molto
        più spostati verso il lo-end del mercato che in
        passato!
        Adesso conta molto di più avere una scheda video
        all'altezza. Inutile dire che i quad core sono
        sprecati anche coi videogiochi, a meno di non
        avere esigenze particolari (es: rendering 3d
        mentre si
        gioca....).Non lo so avvelenato... Io ho un Athlon64 3500+ con 2 Giga di Ram DDR e una GeForce 6800GT 256Mb GDDR3 e Splinter Cell Double Agent scatticchia coi dettagli al massimo... E la cosa è talmente desolante che sto cominciando a stancarmi di correre dietro all'hardware per via della mia passione per i videogiochi. In compenso potrei liberarmi al 100% di windows una volta per tutte.TAD
        • Anonimo scrive:
          Re: I Videogiochi
          - Scritto da: TADsince1995


          Ma neanche.

          Se vai a vedere i test, sono davvero pochi i

          videogiochi dove un qualsiasi sistema
          entry-level

          non garantisca le prestazioni minime. E anche
          lì,

          i requisiti per quanto concerne la cpu sono
          molto

          più spostati verso il lo-end del mercato che in

          passato!

          Adesso conta molto di più avere una scheda video

          all'altezza. Inutile dire che i quad core sono

          sprecati anche coi videogiochi, a meno di non

          avere esigenze particolari (es: rendering 3d

          mentre si

          gioca....).

          Non lo so avvelenato... Io ho un Athlon64 3500+
          con 2 Giga di Ram DDR e una GeForce 6800GT 256Mb
          GDDR3 e Splinter Cell Double Agent scatticchia
          coi dettagli al massimo... E la cosa è talmente
          desolante che sto cominciando a stancarmi di
          correre dietro all'hardware per via della mia
          passione per i videogiochi. In compenso potrei
          liberarmi al 100% di windows una volta per
          tutte.

          TADLa diversità dell'hardware in ambito PC fa si che i giochi non ne sfruttino al 100% le potenzialità. Cosa che in linea di principio non avviene per le Console.Se proprio vuoi giocare, fatti una Console.
          • TADsince1995 scrive:
            Re: I Videogiochi

            La diversità dell'hardware in ambito PC fa si che
            i giochi non ne sfruttino al 100% le
            potenzialità. Cosa che in linea di principio non
            avviene per le
            Console.
            Se proprio vuoi giocare, fatti una Console.Hai ragione, verissimo. I programmatori di console sanno con precisione su quale hardware girerà il loro software, per cui possono anche fare delle ottimizzazioni ad hoc, cosa che, come dici giustamente tu, non può avvenire su PC.Ci stavo pensando a una console, anche se le ho sempre odiate...TAD
          • Anonimo scrive:
            Re: I Videogiochi
            - Scritto da: TADsince1995


            La diversità dell'hardware in ambito PC fa si
            che

            i giochi non ne sfruttino al 100% le

            potenzialità. Cosa che in linea di principio non

            avviene per le

            Console.

            Se proprio vuoi giocare, fatti una Console.

            Hai ragione, verissimo. I programmatori di
            console sanno con precisione su quale hardware
            girerà il loro software, per cui possono anche
            fare delle ottimizzazioni ad hoc, cosa che, come
            dici giustamente tu, non può avvenire su
            PC.

            Ci stavo pensando a una console, anche se le ho
            sempre
            odiate...

            TAD3 anonimoQuoto tutti ....Io sto valutando la PS3 ...è una consolle ... ma con Linux diventa un computer da salotto ....l'unica cosa mi trattiene è il monitor ....un TV 1080P potrà essere usato come monitor per Navigare ???o sarà un sistema spaccaretine come tutte le consolle ???
        • avvelenato scrive:
          Re: I Videogiochi
          - Scritto da: TADsince1995


          Ma neanche.

          Se vai a vedere i test, sono davvero pochi i

          videogiochi dove un qualsiasi sistema
          entry-level

          non garantisca le prestazioni minime. E anche
          lì,

          i requisiti per quanto concerne la cpu sono
          molto

          più spostati verso il lo-end del mercato che in

          passato!

          Adesso conta molto di più avere una scheda video

          all'altezza. Inutile dire che i quad core sono

          sprecati anche coi videogiochi, a meno di non

          avere esigenze particolari (es: rendering 3d

          mentre si

          gioca....).

          Non lo so avvelenato... Io ho un Athlon64 3500+
          con 2 Giga di Ram DDR e una GeForce 6800GT 256Mb
          GDDR3 e Splinter Cell Double Agent scatticchia
          coi dettagli al massimo...Se i dettagli sono al massimo la cpu non c'entra molto, è la vga. Prova a fare un test di scalabilità con risoluzioni molto basse (le minime selezionabili) e dettagli al massimo. Se è colpa della cpu gli scatti dovrebbero mantenersi.io ho una 6800le con 128mb di ddr o ddr2, non posso impostare textures ampie perché la scarsità di memoria mi frega, la cpu invece si tiene fresca (athlon 3700+, 1gb di ram).
          E la cosa è talmente
          desolante che sto cominciando a stancarmi di
          correre dietro all'hardware per via della mia
          passione per i videogiochi. In compenso potrei
          liberarmi al 100% di windows una volta per
          tutte.

          TADPotresti prenderti una xbox360, magari convinci il draga che sa fare qualcosa meglio di come fa i SO (rotfl)
          • TADsince1995 scrive:
            Re: I Videogiochi

            Potresti prenderti una xbox360, magari convinci
            il draga che sa fare qualcosa meglio di come fa i
            SO
            (rotfl)Ma io questo non l'ho mai negato! Tutt'altro! ;)Odio il draga e la sua azienda sin da quando neanche conoscevo l'esistenza di linux, ma bisogna essere obiettivi, Microsoft quando si parla di videogiochi e relative tecnologie non ha rivali. Per il resto meglio stendere un pietoso velo e cercare di accettare la situazione che i suoi prodotti hanno creato.Come dicevo nell'altro post, stavo considerando l'ipotesi di una console, dato che mi sto stancando di spendere 2000 e passa euro per un pc che dopo meno di 2 anni comincia a rantolare, però più che xbox360 (ottima console) sarei tentato di prendere la PS3, per la sua "accessibilità" data dalla possibilità di installarci linux...Vedremo appena esce, i filmati che girano in rete, se attendibili, sono sconvolgenti.TAD
        • Anonimo scrive:
          Re: I Videogiochi
          - Scritto da: TADsince1995


          Ma neanche.

          Se vai a vedere i test, sono davvero pochi i

          videogiochi dove un qualsiasi sistema
          entry-level

          non garantisca le prestazioni minime. E anche
          lì,

          i requisiti per quanto concerne la cpu sono
          molto

          più spostati verso il lo-end del mercato che in

          passato!

          Adesso conta molto di più avere una scheda video

          all'altezza. Inutile dire che i quad core sono

          sprecati anche coi videogiochi, a meno di non

          avere esigenze particolari (es: rendering 3d

          mentre si

          gioca....).

          Non lo so avvelenato... Io ho un Athlon64 3500+
          con 2 Giga di Ram DDR e una GeForce 6800GT 256Mb
          GDDR3 e Splinter Cell Double Agent scatticchia
          coi dettagli al massimo... E la cosa è talmente
          desolante che sto cominciando a stancarmi di
          correre dietro all'hardware per via della mia
          passione per i videogiochi. In compenso potrei
          liberarmi al 100% di windows una volta per
          tutte.

          TADE perchè rincorrere?Io ho una ati 9500, roba di 2 anni fa e passa, e quasi tutto è ancora giocabile, certo senza dettagli al massimo, ma dov'è il problema?
          • Anonimo scrive:
            Re: I Videogiochi


            E perchè rincorrere?

            Io ho una ati 9500, roba di 2 anni fa e passa, e
            quasi tutto è ancora giocabile, certo senza
            dettagli al massimo, ma dov'è il
            problema?
            Sembrerà incredibile, ma io gioco ancora bene a GTA SA con una GeForce 3 su Athlon 1400 con 600Mb di ram......... :$
        • Anonimo scrive:
          Re: I Videogiochi

          Non lo so avvelenato... Io ho un Athlon64 3500+
          con 2 Giga di Ram DDR e una GeForce 6800GT 256Mb
          GDDR3 e Splinter Cell Double Agent scatticchia
          coi dettagli al massimo... E la cosa è talmente
          desolante che sto cominciando a stancarmi di
          correre dietro all'hardware per via della mia
          passione per i videogiochi. :s era una volta che si passavano giornate di fronte a super mario bros :s
        • Anonimo scrive:
          Re: I Videogiochi
          - Scritto da: TADsince1995


          Ma neanche.

          Se vai a vedere i test, sono davvero pochi i

          videogiochi dove un qualsiasi sistema
          entry-level

          non garantisca le prestazioni minime. E anche
          lì,

          i requisiti per quanto concerne la cpu sono
          molto

          più spostati verso il lo-end del mercato che in

          passato!

          Adesso conta molto di più avere una scheda video

          all'altezza. Inutile dire che i quad core sono

          sprecati anche coi videogiochi, a meno di non

          avere esigenze particolari (es: rendering 3d

          mentre si

          gioca....).

          Non lo so avvelenato... Io ho un Athlon64 3500+
          con 2 Giga di Ram DDR e una GeForce 6800GT 256Mb
          GDDR3 e Splinter Cell Double Agent scatticchia
          coi dettagli al massimo... E la cosa è talmente
          desolante che sto cominciando a stancarmi di
          correre dietro all'hardware per via della mia
          passione per i videogiochi. In compenso potrei
          liberarmi al 100% di windows una volta per
          tutte.

          TADE' colpa del Double Agent, devi prendere un Dual Core, un Core per uno, sennò litigano.
          • Anonimo scrive:
            Re: I Videogiochi


            TAD
            E' colpa del Double Agent, devi prendere un Dual
            Core, un Core per uno, sennò
            litigano.Tu ci scherzi ma guarda che è vero, cìè scritto pure sulla confezione, duble agent è ottimizzato per Cpu dual core
        • barotto scrive:
          Re: I Videogiochi
          - Scritto da: TADsince1995


          Ma neanche.

          Se vai a vedere i test, sono davvero pochi i

          videogiochi dove un qualsiasi sistema
          entry-level

          non garantisca le prestazioni minime. E anche
          lì,

          i requisiti per quanto concerne la cpu sono
          molto

          più spostati verso il lo-end del mercato che in

          passato!

          Adesso conta molto di più avere una scheda video

          all'altezza. Inutile dire che i quad core sono

          sprecati anche coi videogiochi, a meno di non

          avere esigenze particolari (es: rendering 3d

          mentre si

          gioca....).

          Non lo so avvelenato... Io ho un Athlon64 3500+
          con 2 Giga di Ram DDR e una GeForce 6800GT 256Mb
          GDDR3 e Splinter Cell Double Agent scatticchia
          coi dettagli al massimo... E la cosa è talmente
          desolante che sto cominciando a stancarmi di
          correre dietro all'hardware per via della mia
          passione per i videogiochi. In compenso potrei
          liberarmi al 100% di windows una volta per
          tutte.

          TADCaro TAD, ho la tua stessa configurazione, identica in tutto e ho fatto la tua stessa considerazione. La 6800gt l'ho presa usata, ad un prezzaccio, a luglio 2004 per giocare a Doom3. Da allora mi serve egregiamente: CSS, HL2, Quake4, Oblivion, FlatOut1/2, Civ4, COD2, Titan Quest, FarCry, ...Non tutto viaggia al massimo dettaglio (specie Oblivion) ma ti dirò, non me ne frega un menga.Di rincorrere i VG non mi va più, mi sentirei un po' fesso, ad essere sincero. Se riesco a giocarli con quello che ho bene, se no amen. E come se non bastasse le console hanno un grosso problema: deficitano per quanto riguarda l'espandibilità. E non parlo d'hardware, ma di software: non posso usare e soprattutto realizzare mod e mappe. Gioco in LAN con degli amici, negli anni mi sono divertito a creare mappe per noi da giocare in CS e BF42. Le console da questo punto di vista sono completamente inutili.
      • Anonimo scrive:
        Re: I Videogiochi

        Ma neanche.
        Se vai a vedere i test, sono davvero pochi i
        videogiochi dove un qualsiasi sistema entry-level
        non garantisca le prestazioni minime. E anche lì,
        i requisiti per quanto concerne la cpu sono molto
        più spostati verso il lo-end del mercato che in
        passato!Insomma, dipende da cosa intendi per prestazioni minime.
        Adesso conta molto di più avere una scheda video
        all'altezza. Inutile dire che i quad core sono
        sprecati anche coi videogiochi, a meno di non
        avere esigenze particolari (es: rendering 3d
        mentre si
        gioca....).Il motore Source a breve avrà il supporto multicore, così come lo ha già COD2 e altri titoli di punta. Certo se ti accontenti...
  • Anonimo scrive:
    Articolo inutile
    Come immaginavo, una scusa come un'altra per scrivere un articolo inutile.Secondo lui dobbiamo rimanere fermi e non sviluppare più le tecnologie. Hai paura di non poterle sfruttare? Illuso...
    • Anonimo scrive:
      Re: Articolo inutile
      - Scritto da:
      Come immaginavo, una scusa come un'altra per
      scrivere un articolo
      inutile.
      Secondo lui dobbiamo rimanere fermi e non
      sviluppare più le tecnologie. Hai paura di non
      poterle sfruttare?
      Illuso...Ehehe... ho fatto due minuti fa un post un po più lungo del tuo ma la sostanza è perfettamente la stessa. Mi domando perchè PI abbia scelto di pubblicarlo...
      • Anonimo scrive:
        Re: Articolo inutile

        Mi domando perchè PI abbia scelto di
        pubblicarlo...Forse perchè può essere utile all'utonto in generale?Forse ti sta solo dicendo che è prematuro buttarsi su certe soluzioni ADESSO?Forse ti sta dicendo di valutare quello che devi farci col pc perchè potresti ritrovarti con una macchina di potenza eccessiva e dal costo non giustificato alle tue esigenze?Vabbeh, tanto si sa che qua dentro ve la fate nelle mutande ad ogni nuova tecnologia sparata sul mercato. Magari non ve ne fate niente, ma vuoi mettere il godimento di fare sentire una cacca il collega di lavoro o "l'amico"?
    • Anonimo scrive:
      Re: Articolo inutile
      Risposta inutile.O flame?Meglio che riducano i consumi, visto che nel 90% dei casi i PC sono utilizzati per scrivere email o testi di word.E in questi casi va benissimo anche un p3 con win2k, ecc...
    • Anonimo scrive:
      Re: Articolo inutile
      quoto, magari per ora è così, che pochi sviluppano per i multicore (e per i 64 bit), ma via via andranno adeguandosi tutti, facendone un cavallo di battaglia, dato anche che tutte le cpu man mano stanno cambiando architettura
    • Anonimo scrive:
      Re: Articolo inutile
      - Scritto da:
      Come immaginavo, una scusa come un'altra per
      scrivere un articolo
      inutile.
      Secondo lui dobbiamo rimanere fermi e non
      sviluppare più le tecnologie. Hai paura di non
      poterle sfruttare?
      Illuso...In realtà probabilmente non si è capito il senso. Avere più cpu (o cpu multicore, non cambia molto) può portare sostanzialmente due vantaggi:- più applicazioni contemporaneamente- migliorare le perf di una applicazioneil primo punto è compito del sistema operativo, e fin qui ci siamo. Però è anche poco utile in fondo: il secondo punto - più importante - infatti è vero se e solo se il codice è scritto per essere multithread. Altrimenti l'applicazione potrebbe anche essere più lenta, poichè il singolo core potrebbe essere addirittura meno potente di una "vecchia" cpu con frequenza più alta. Quindi se io ho 4 core, che me ne faccio? Se il SO è ben fatto, posso probabilmente far girare meglio 4 app contemporanente (ammesso e non concesso che non abbiano altri colli di bottiglia, per esempio il disco), ma magari la singola applicazione è monothread e va come prima, forse peggio o solo parzialmente meglio.
  • Anonimo scrive:
    Articolo senza senso
    Ho appena finito di leggere questo articolo e sinceramente l'ho trovato totalmente privo di senso. L'autore parla dell'enorme divario che si è venuto a creare tra sw e hw. Ma secondo me colui utilizza il pc soltanto per scrivere una lettera con word o ascoltare la musica. E non conosce bene il mondo informatico e gli impieghi che si fanno del pc nel 2007!Oggi il personal computer non è più come veniva concepito 10 anni fa. Adesso è una stazione multimediale, che permette di vedere la televisione e contemporaneamente salvare un'altra trasmissione, di fare video editing, rendering 3D, e via dicendo.E' chiaro che per scrivere un documento o vedere un film non occorra avere un dual core, ma per tutto il resto sì. Lo garantisco. E se lautore avesse bene a conoscenza queste cose di certo non avrebbe scritto a punto informatico quello che ho letto.La domanda presente nel commento è "quanto venderanno i dual core?". Quanto venderanno?!? E c'è da domandarselo, con tutte le possibilità che offrono oggi i pc? Io faccio rendering con 3ds (che portano via anche oltre le 5 ore), e di sicuro aspettare un'ora in meno rispetto a quando avevo il vecchio pentium non è che mi dispiaccia. E se per caso voglio mettere su un mp3, o viene un mio amico e ha bisogno ce gli faccia una copia di un cd, posso farlo senza allungare in maniera esponenziale il tempo di rendering. E con certi lavori, anche risparmiare mezzora è una cosa sacra.Certo, non è che tutti gli utenti facciano montaggi video o rendering o cose simili. Ma resta il fatto che senza ombra di dubbio, più si va avanti e più il numero di utenti che utilizzeranno il computer per questi scopi non farà altro che aumentare. Un esempio? Molta gente non ha la minima idea di cosa sia montare un clip video. Ma basta aprire Movie Maker, smanettarci 5 minuti, ed ecco che si impara. Ed ecco un nuovo utente che anche se per puro divertimento e senza accorgersene, sfrutta a pieno una cpu di nuova generazione.Quindi, in conclusione, trovo questo articolo (anche bello lungo) privo di significato perché inevitabilmente col passare del tempo tutti noi, utenti professionisti e non, ci troveremo ad aver necessità di una certa potenza di calcolo. Ed è per questo che i nuovi dual-core e quad-core saranno sempre più ricercati. I software rimarranno pure gli stessi, apparentemente, ma le possibilità che offrono sono senzaltro superiori rispetto anche solo ad un anno fa.Skynet
    • Anonimo scrive:
      Re: Articolo senza senso
      Si vede che sei uno smanettone che pensa che il mondo sia come te.Tutto osservazioni giuste, ma per il 10% degli utenti che usano il pc come lo usi tu.Il 90% degli altri utenti scrive mail, naviga su internet e documenti office. L'articolo dice cose sacrosante: se il software fosse cresciuto in qualità e prestazioni a pari passo dell'hardware oggi tu faresti tutto quello che dici di fare pure a computer spento. ;)
    • fedemello scrive:
      Re: Articolo senza senso
      imfatti sono daccordo con chi ha inserito questo commento,a me "giocare a 1.600 x 1.200 pixel con FSAA 16x mentre si rippa un DVD e nel contempo si fa un rendering con 3D Studio" non mi dispiacerebbe per niente.
    • barotto scrive:
      Re: Articolo senza senso
      - Scritto da:
      Oggi il personal computer non è più come veniva
      concepito 10 anni fa. Adesso è una stazione
      multimediale, che permette di vedere la
      televisione e contemporaneamente salvare un'altra
      trasmissione, di fare video editing, rendering
      3D, e via
      dicendo.Non è come era 10 anni fa, vero ... ma anche no, vediamo un po':2007 - 10 = 1997, nel '97 c'era il pentium 200ed io il 3DStudio 4 lo usavo col 486 a 50mhz, 8MB ram, 170MB hd (circa '93) :o Premiere ho cominciato ad usarlo nel '99 con la Pinnacle DC30, su un Celeron 450mhz (300 overcloccato, "mitico" Mendocino), 128MB ram, 8GB hd. Ma già da tempo c'erano a disposizione le MovieMachine di FAST o le Matrox Rainbow Runner da appiccicare alle Millenium/Mistique (tutto su Pentium 1).La TV ho cominciato a vederla e registrarla da quando ho la DC30, attaccandoci il videoregistratore. Ma le TV tuner erano comunque in commercio.Siamo d'accordo che le prestazioni non sono paragonabili, ma l'idea che sta alla base non è così diversa...
    • Anonimo scrive:
      Re: Articolo senza senso
      sono d'accordo. tant'è che faccio ancora funzionare il mio duron 800 MHz, ma il video editing me lo sogno, come pure il rippaggio di dvd e compagnia bella. E anche se uso XFCE la cosa mi fa risparmiare un bel po' solo in ram: quando si tratta di macinare sono i MHz che mi mancano.Magari avessi un dual-core, sai le sessioni in mutlitasking che farei!Splarz
  • Anonimo scrive:
    Re: Che lavori un po' con i programmi ve
    - Scritto da: avvelenato

    Infatti non capisco come mai il concetto del
    mac-mini non sia stato rivisto e corretto, l'idea
    è buona, diminuendo ancor più il costo si crea un
    prodotto che alletta l'utente base Infatti. Al prezzo del macmini mi faccio un computer decente
  • Anonimo scrive:
    Re: Che lavori un po' con i programmi ve
    Quali sono i programmi falsi?
    • Anonimo scrive:
      Re: Che lavori un po' con i programmi ve
      - Scritto da:
      Quali sono i programmi falsi?I file word salvati con estensione .exe, ad esempio
  • Anonimo scrive:
    informatica è corsa all'evoluzione
    Secondo me l'autore dell'articolo ha sbagliato completamente mira.Il software è SEMPRE stato indietro all'hardware, almeno nelle piattaforme x86.Ad esempio il primo processore a supportare le istruzioni a 32 bit e la memoria protetta è stato il 386, ma solo Windows NT iniziò a sfruttare queste caratteristiche 10 anni dopo.Ci vollero anni prima che le istruzioni MMX prima, e SSE poi, venivano sfruttate dai giochi e dagli applicativi multimediali.I produttori di CPU si sono resi conto che si possono raddoppiare le performance senza incorrere in problemi di resa aumentando il numero di core piuttosto che incrementare la frequenza operativa, com'era fino a qualche anno fa.Ciò è stato un gran bene, xkè le CPU single core avevano un problema fondamentale, quello di poter operare su un processo alla volta. Il multitasking era in realtà un frazionamento dei vari lavori da eseguire, processati uno alla volta: se un'applicazione stallava, il sistema si bloccava o diventava molto lento.Con i dual core il multitasking funziona molto meglio, e non c'è bisogno di scomodare applicazioni multithreaded, ke sono si difficili da programmare ma esistono laddove è utile (p.es. encoding video o rendering).Ogni utente odierno ha come minimo aperti in esecuzione un antivirus, un client email, un client di instant messanging, un browser e un player musicale, sono già 5 processi...Per ora a risultare poco sfruttati sono i Quad core, ke giustamente vengono proposti in sistemi ultra high-end a prezzi non proprio popolari.L'autore ha fondalmentalmente peccato di lungimiranza, il suo articolo mi ricorda l'affermazione del capo dell'ufficio brevetti USA agli inizi del secolo ventesimo: "Non c'è più niente da inventare perchè è già stato tutto inventato".Alle porte c'è l'alta definizione, ci sono i giochi DX10, c'è Windows Vista, e fra non molto compariranno senza ke ce se ne accorga sistemi a comando vocale e schermi alla Minority Report... e a quel punto di core ce ne saranno 16 o 32 :D
    • Anonimo scrive:
      Re: informatica è corsa all'evoluzione
      - Scritto da:
      Secondo me l'autore dell'articolo ha sbagliato
      completamente
      mira.
      Il software è SEMPRE stato indietro all'hardware,
      almeno nelle piattaforme
      x86.Tranne nel caso del mercato dei videogiochi, dove librerie grafiche come le directx indicano la rotta da seguire e vengono sviluppati giochi basandosi su hardware che deve ancora uscire.
    • Anonimo scrive:
      Re: informatica è corsa all'evoluzione
      - Scritto da:
      Secondo me l'autore dell'articolo ha sbagliato
      completamente
      mira.
      Il software è SEMPRE stato indietro all'hardware,
      almeno nelle piattaforme
      x86.
      Ad esempio il primo processore a supportare le
      istruzioni a 32 bit e la memoria protetta è stato
      il 386, ma solo Windows NT iniziò a sfruttare
      queste caratteristiche 10 anni
      dopo.No, guarda. Nel 1988, con il 386 da poco fuori, noi usavamo xenix (ma c'erano anche altri sistemi *nix): kernel e user, memoria protetta, indirizzamento completo a 32bit;altro che litigare con memoria espansa, estesa, pointer near e far: non mi sembrava neppure vero.Magari il mercato *nix, allora, fosse stato piu' lungimirante e i produttori fossero "scesi dal pero" abbassando i prezzi.
    • HotEngine scrive:
      Re: informatica è corsa all'evoluzione
      - Scritto da:
      I produttori di CPU si sono resi conto che si
      possono raddoppiare le performance senza
      incorrere in problemi di resa aumentando il
      numero di core piuttosto che incrementare la
      frequenza operativa, com'era fino a qualche Semplicemente HANNO DOVUTO procedere per questa strada perchè è stato raggiunto il limite dell'attuale tecnologia al silicio (profetizzato scientificamente già diversi anni fa) di frequenza raggiungibile...http://89.96.238.146/articles.asp?id=1
    • Enzo4510 scrive:
      Re: informatica è corsa all'evoluzione
      - Scritto da:
      Ogni utente odierno ha come minimo aperti in
      esecuzione un antivirus, un client email, un
      client di instant messanging, un browser e un
      player musicale, sono già 5
      processi...Il cui utilizzo della cpu è praticamente nullo...
    • barotto scrive:
      Re: informatica è corsa all'evoluzione
      - Scritto da:
      Ogni utente odierno ha come minimo aperti in
      esecuzione un antivirus, un client email, un
      client di instant messanging, un browser e un
      player musicale, sono già 5
      processi...L'antivirus ce l'hanno solo gli utenti Windows, quindi escluderei la parola "ogni". :DI client Email, IM ed il browser sono praticamente inattivi per il 99% del tempo, nel restante 1% l'utente ci interagisce ma solo con 1 programma alla volta (o tu hai 2 monitor, 4 occhi e 4 braccia?). Infine il player mp3, se carica la cpu per il 1% è già un successo...Insomma, siamo noi esseri umani ad essere intrinsecamente monotask (a parte forse per il player mp3...)
      compariranno senza ke ce se ne accorga sistemi a
      comando vocale e schermi alla Minority Report...
      e a quel punto di core ce ne saranno 16 o 32
      :DI sistemi a comando vocale o quelli nei quali bisogna sbracciarsi non faranno la loro comparsa in pompa magna, e non perché non siano realizzabili, ma perché sono assolutamente "antipigri": pensaci, tu muovi il mouse con 1 mano e l'estensione del movimento è molto limitata; nonostante ciò con esso puoi fare quasi tutto. Pensa ad un sistema che ti obblighi a muovere non 1 mano ma 2 braccia nel vuoto per interagire col PC (muovere le finestre): tornerebbero tutti al mouse.La tastiera infine resta comunque il miglior mezzo di input testuale, ancora oggi. Ricordo che i sistemi di riconoscimento vocale ci sono da anni, li ho usati qualche volta 6-7 anni fa, funzionavano (+ o -) ma non sono mai decollati... perché? E sì che orami la tecnologia è matura...
      • Anonimo scrive:
        Re: informatica è corsa all'evoluzione
        E pensare che, da un cliente, un misero P4 1,5Gh con 3 GB di RAM riesce a sostenere con successo VMWare server con 4 virtual machine Win2000 attive per altrettanti utenti per un utilizzo aziendale.Parlo di OpenOffice, Firefox, Thunderbird, un'applicazione client-server scritta in delphi che accede ad un Oracle.Tutti comunque sempre attivi, oltre all'immancabile antivirus TrendMicroDaccordo che le macchine sono create per fare le cose più in fretta; ma condivido l'opinione dell'autore dell'articolo sulla 'assurdita' di questa corsa alle prestazioni.Mauro
        • Anonimo scrive:
          Re: informatica è corsa all'evoluzione

          Daccordo che le macchine sono create per fare le
          cose più in fretta; ma condivido l'opinione
          dell'autore dell'articolo sulla 'assurdita' di
          questa corsa alle
          prestazioni.

          Mauroquindi suggerisci lasciare a casa qualche migliaia di sviluppatori di intel e AMD in attesa che ci sia il SW che sfrutti a pieno la CPU? O meglio tenere un po' di fab da .35 insieme a quelle nuove "perché comunque c'è un sacco di gente che non ha bisogno di tanta potenza di calcolo"? E poi quando avrai un PIII 1G a $50 e un dual core a $55 la gente cosa comprerà?
        • ilgorgo scrive:
          Re: informatica è corsa all'evoluzione
          - Scritto da:
          E pensare che, da un cliente, un misero P4 1,5Gh
          con 3 GB di RAM riesce a sostenere con successo
          VMWare server con 4 virtual machine Win2000
          attive per altrettanti utenti per un utilizzo
          aziendale.
          ... e invece il mio server VmWare (bi-processore XEON 2.8 GHz, ecc, ecc) era li che annaspava sotto il carico delle sue 10 vm :|.[...]

          Daccordo che le macchine sono create per fare le
          cose più in fretta; ma condivido l'opinione
          dell'autore dell'articolo sulla 'assurdita' di
          questa corsa alle
          prestazioni.

          MauroNonostante io sia il primo a suggerire agli amici (ed anche in azienda) di non acquistare pc con cpu super pompate, non considero questa corsa assurda. E' vero che la stragrande maggioranza degli utenti userà il pc per navigare o scrivere due lettere, ma esiste pur sempre una fetta di mercato fatta da persone che necessitano di queste capacità (il mio server VmWare ad esempio O) ).Paradossalmente mi proecuperebbe di più una 'corsa' nel mondo software, perchè se un Core 2 può lavorare a fianco di un Pentium 4, versione X di un software può non digerire i file prodotti dalla versione Y (con la conseguente necessità di aggiornare tutte le workstation ad ogni rilascio :@)Buonanotte!
  • Anonimo scrive:
    Applicazioni e processori
    "il software è quasi sempre scritto per girare su sistemi monoprocessore"A parte che quel "quasi sempre" suona eccessivamente pessimista, la risposta rimane comunque.... e quindi? Qualsiasi sistema operativo di qualsiasi computer moderno fa girare in contemporanea decine e decine di task, che possono sfruttare tranquillamente più processori per essere eseguiti. Un normale sistema windows, ad esempio, esegue in contemporanea antivirus (e questi sono praticamente sempre multitask), legge mp3, naviga, controlla la posta, tiene il programma di messaggistica istantanea collegato, programmi di office automation aperti, etc etc etc tutto in contemporanea (per l'utente) senza considerare quello che fa il sistema operativo. Facendo due conti direi che si, si possono tranquillamente sfruttare più processori per eseguire questi compiti, anche se ognuno di essi fosse un singolo processo monotask.
    • Anonimo scrive:
      Re: Applicazioni e processori
      - Scritto da:
      "il software è quasi sempre scritto per girare su
      sistemi
      monoprocessore"
      A parte che quel "quasi sempre" suona
      eccessivamente pessimista, la risposta rimane
      comunque.... e quindi?


      Qualsiasi sistema operativo di qualsiasi computer
      moderno fa girare in contemporanea decine e
      decine di task, che possono sfruttare
      tranquillamente più processori per essere
      eseguiti.

      Un normale sistema windows, ad esempio, esegue in
      contemporanea antivirus (e questi sono
      praticamente sempre multitask), legge mp3,
      naviga, controlla la posta, tiene il programma di
      messaggistica istantanea collegato, programmi di
      office automation aperti, etc etc etc tutto in
      contemporanea (per l'utente) senza considerare
      quello che fa il sistema operativo. Facendo due
      conti direi che si, si possono tranquillamente
      sfruttare più processori per eseguire questi
      compiti, anche se ognuno di essi fosse un singolo
      processo
      monotask.Se le applicazioni non sono multithreaded solo 1 core della CPU sarà attivo.
      • Anonimo scrive:
        Re: Applicazioni e processori
        - Scritto da:

        - Scritto da:

        "il software è quasi sempre scritto per girare
        su

        sistemi

        monoprocessore"

        A parte che quel "quasi sempre" suona

        eccessivamente pessimista, la risposta rimane

        comunque.... e quindi?





        Qualsiasi sistema operativo di qualsiasi
        computer

        moderno fa girare in contemporanea decine e

        decine di task, che possono sfruttare

        tranquillamente più processori per essere

        eseguiti.



        Un normale sistema windows, ad esempio, esegue
        in

        contemporanea antivirus (e questi sono

        praticamente sempre multitask), legge mp3,

        naviga, controlla la posta, tiene il programma
        di

        messaggistica istantanea collegato, programmi di

        office automation aperti, etc etc etc tutto in

        contemporanea (per l'utente) senza considerare

        quello che fa il sistema operativo. Facendo due

        conti direi che si, si possono tranquillamente

        sfruttare più processori per eseguire questi

        compiti, anche se ognuno di essi fosse un
        singolo

        processo

        monotask.

        Se le applicazioni non sono multithreaded solo 1
        core della CPU sarà
        attivo.Falso. Solo 1 core per singola applicazione.
        • pentolino scrive:
          Re: Applicazioni e processori

          Falso. Solo 1 core per singola applicazione.Sempre che il SO sia in grado di gestire la cosa, ovvero di bilanciare le applicazioni fra gli N core. E poi sarebbe auspicabile che lo faccia in maniera efficiente (tipo evitare di mettere sullo stesso core un rendering di 3DStudio e la riproduzione di un film in HD e lasciare sull' altro il solo Word! situazione irrealistica ma ci siamo capiti...)
        • Anonimo scrive:
          Re: Applicazioni e processori
          - Scritto da:

          - Scritto da:



          - Scritto da:


          "il software è quasi sempre scritto per girare

          su


          sistemi


          monoprocessore"


          A parte che quel "quasi sempre" suona


          eccessivamente pessimista, la risposta rimane


          comunque.... e quindi?








          Qualsiasi sistema operativo di qualsiasi

          computer


          moderno fa girare in contemporanea decine e


          decine di task, che possono sfruttare


          tranquillamente più processori per essere


          eseguiti.





          Un normale sistema windows, ad esempio, esegue

          in


          contemporanea antivirus (e questi sono


          praticamente sempre multitask), legge mp3,


          naviga, controlla la posta, tiene il programma

          di


          messaggistica istantanea collegato, programmi
          di


          office automation aperti, etc etc etc tutto in


          contemporanea (per l'utente) senza considerare


          quello che fa il sistema operativo. Facendo
          due


          conti direi che si, si possono tranquillamente


          sfruttare più processori per eseguire questi


          compiti, anche se ognuno di essi fosse un

          singolo


          processo


          monotask.



          Se le applicazioni non sono multithreaded solo 1

          core della CPU sarà

          attivo.

          Falso. Solo 1 core per singola applicazione.Ma la memoria è condivisa e sono cazzi.
          • Anonimo scrive:
            Re: Applicazioni e processori
            - Scritto da:

            - Scritto da:



            - Scritto da:





            - Scritto da:



            "il software è quasi sempre scritto per
            girare


            su



            sistemi



            monoprocessore"



            A parte che quel "quasi sempre" suona



            eccessivamente pessimista, la risposta
            rimane



            comunque.... e quindi?











            Qualsiasi sistema operativo di qualsiasi


            computer



            moderno fa girare in contemporanea decine e



            decine di task, che possono sfruttare



            tranquillamente più processori per essere



            eseguiti.







            Un normale sistema windows, ad esempio,
            esegue


            in



            contemporanea antivirus (e questi sono



            praticamente sempre multitask), legge mp3,



            naviga, controlla la posta, tiene il
            programma


            di



            messaggistica istantanea collegato,
            programmi

            di



            office automation aperti, etc etc etc tutto
            in



            contemporanea (per l'utente) senza
            considerare



            quello che fa il sistema operativo. Facendo

            due



            conti direi che si, si possono
            tranquillamente



            sfruttare più processori per eseguire questi



            compiti, anche se ognuno di essi fosse un


            singolo



            processo



            monotask.





            Se le applicazioni non sono multithreaded
            solo
            1


            core della CPU sarà


            attivo.



            Falso. Solo 1 core per singola applicazione.

            Ma la memoria è condivisa e sono cazzi.Per chi? La gestione fisica della memoria non è una cosa di cui si deve preoccupare il programma ma se ne occupa il SO, ed in qualsiasi computer moderno è condivisa di base tra più dispositivi (vedi DMA). Se poi parli di processi distinti questi logicamente non hanno nessun pezzo di memoria in comune, se parli di applicazioni multithread i cui thread sono eseguiti in contemporanea tra più cpu anche qui il problema gestione memoria cambia poco rispetto a quello di esecuzione su singola cpu.
  • Anonimo scrive:
    Per i server...
    ...ma per i server il multiprocessing non è una novità, piuttosto avere più core su un singolo package PUO' ridurre i costi. PUO', non è detto che succeda.D'altra parte adottare il multicore prematuramente non è la miglior cosa da fare in un server, dove l'affidabilità è essenziale e dove consumi eccessivi possono far lievitare i costi della bolletta quadraticamente, a causa dei costi dell'alimentazione delle macchine e del condizionamento della sala macchine.In un server, poi, destinato alla multiutenza e quindi con elevate probabilità che i processi NON lavorino su dati condivisi, non è detto che la soluzione a cache L2 unificata dei multicore intel sia quella ideale.
  • Anonimo scrive:
    Articolo un po' così
    Questo articolo è un po' superficiale. Le performance dei sistemi multicore (e multiprocessore) si vedono benissimo sui software server progettati per usarli.Ad oggi non esistono molti software desktop in grado di usarli. In effetti sono anche pochi i programmi multithread. E il multicore è veramente mainstream da poche settimane. In compenso un sistema multicore è in grado di far girare più programmi contemporaneamente meglio ma questo si nota più con Vista che con XP.Ne riparliamo fra 6-12 mesi.
  • Anonimo scrive:
    eccome se c'è senso
    molto probabilmente nel giro di qualche anno ci aspetterà un altro w. vista che richiederà il doppio dei requisiti e con multiprocessore non consigliato ma richiesto.a quel punto almeno possiamo dire che la corsa verso il quad core sarà servita sicuramente a qualcosa..... non certo per adesso..... ma non possiamo stare ad aggiornare l'hardware ogni anno.... ed è giusto che la tecnologia hardware si muova in modo esponenziale visto che anche quella software non è proprio del tutto ferma come dice PI.ciao
    • Anonimo scrive:
      Re: eccome se c'è senso
      Sai perche' impongono l'uscita di software non ottimizzato ? (sistemi operativi, giochi, programmi vari, etc...)Perche' cosi' la gente e' COSTRETTA a comprare nuovo hardware.Il nuovo hardware e' inutile di per se, perche' pur dandoci maggiore potenza, il rapporto tra costo/utilita' e' quasi zero.Quindi alla fine, per evitare che gli utenti tengano per 10 anni il solito hardware, viene distribuito sofware poco performante, cosi' da obbligare ad un passaggio forzato.Questo, ovviamente, per consentire a chi VENDE hardware di far soldi.Ti basti pensare che quando Vista era in fase di creazione ci sono stati moltissimi produttori hardware che hanno fatto pressioni per aumentare i requisiti di base...Soldi, questo e' il motivo.La logica vorrebbe che prima di procedere con strutture hardware piu' complesse di ottimizzassero i software, cosi' da ottenere il miglior rapporto materie prime/funzionalita'.Un po' quello che fanno per i computer utilizzati sulle stazioni spaziali :il minimo indispensabile in termini di richieste elettriche e materiali, ma con il miglior sofware disponibile.
      • Anonimo scrive:
        Re: eccome se c'è senso
        Voglio aggiungere un mio commento e farvi un esempio.Quando qualche tempo iniziai il servizio civile, venni reclutato dal comune a cui ero stato assegnato e messo a lavorare ad un computer.Servivano tabelle di calcolo a prova di dipendente comunale per il calcolo automatico di uno svariato e variegato numero di cose.Il computer su cui lavoravo era, senza scherzi, un 486 con sopra win95...Bene che ci crediate o no con Excel di quel pc facevo le stesse identiche cose che faccio ora con Excel 2003 su un Centrino 1.7 GHz con 1.5 giga di ram e nello stesso tempo!L'unica differenza tra quell'Excel e questo sono gli orpelli grafici e tutta una serie di abbellimenti esteticamente gradevoli ma inutili al fine pratico.Il software non segue piu' l'hardware da qualche tempo oramai e per giustificare il salto di generazione si fanno, come detto sopra, software o mal programmati, o fatti apposta per consumare piu' risorse ed illudere l'utonto che il suo vecchio pc e' oramai un rottame e che e' ora di spendere soldi per un bell'upgrade...
        • Anonimo scrive:
          Re: eccome se c'è senso
          - Scritto da:
          Voglio aggiungere un mio commento e farvi un
          esempio.
          Quando qualche tempo iniziai il servizio civile,
          venni reclutato dal comune a cui ero stato
          assegnato e messo a lavorare ad un
          computer.
          Servivano tabelle di calcolo a prova di
          dipendente comunale per il calcolo automatico di
          uno svariato e variegato numero di
          cose.
          Il computer su cui lavoravo era, senza scherzi,
          un 486 con sopra
          win95...

          Bene che ci crediate o no con Excel di quel pc
          facevo le stesse identiche cose che faccio ora
          con Excel 2003 su un Centrino 1.7 GHz con 1.5
          giga di ram e nello stesso
          tempo!
          L'unica differenza tra quell'Excel e questo sono
          gli orpelli grafici e tutta una serie di
          abbellimenti esteticamente gradevoli ma inutili
          al fine
          pratico.

          Il software non segue piu' l'hardware da qualche
          tempo oramai e per giustificare il salto di
          generazione si fanno, come detto sopra, software
          o mal programmati, o fatti apposta per consumare
          piu' risorse ed illudere l'utonto che il suo
          vecchio pc e' oramai un rottame e che e' ora di
          spendere soldi per un
          bell'upgrade...Seh, vabbè: ora però, sul centrino, mentre lavori con office puoi ascoltare musica con un lettore multimediale, avere aperto un client p2p, qualche pagina web, (io a volte uso contemporaneamente 3 web browser con molte tab aperte in ciascuno), un istant messager, un client di posta mentre passi files vari su una chiavetta e chissà cos'altro.Dubito che torneresti al 486.
          • ilgorgo scrive:
            Re: eccome se c'è senso
            - Scritto da:


            Seh, vabbè: ora però, sul centrino, mentre lavori
            con office puoi ascoltare musica con un lettore
            multimediale, avere aperto un client p2p, qualche
            pagina web, (io a volte uso contemporaneamente 3
            web browser con molte tab aperte in ciascuno), un
            istant messager, un client di posta mentre passi
            files vari su una chiavetta e chissà
            cos'altro.
            Dubito che torneresti al 486.Non è che hai dimenticato almeno un'altro monitor, tastiera a paio di braccia? ;)Ma come diavolo fai a stare dietro a tutto ciò?
          • Anonimo scrive:
            Re: eccome se c'è senso

            Seh, vabbè: ora però, sul centrino, mentre lavori
            con office puoi ascoltare musica con un lettore
            multimediale, avere aperto un client p2p, qualche
            pagina web, (io a volte uso contemporaneamente 3
            web browser con molte tab aperte in ciascuno), un
            istant messager, un client di posta mentre passi
            files vari su una chiavetta e chissà
            cos'altro.
            Dubito che torneresti al 486.Siamo d'accordo, comunque ciò che ha postato l'altro "puntaro" rimane valido. Se prendi il software di qualche anno fa e lo confronti con i vari aggiornamenti degli ultimi anni ti rendi conto che, oltre alle migliorie, sono state aggiunte moltissime funzioni dall'utilità prossima allo zero. In parte sono diventati dei bloatware il cui unico scopo è spingerti a cambiare il pc.
Chiudi i commenti