Opera sistema sette falle di sicurezza

L'ultima versione del famoso browser norvegese corregge diverse falle di sicurezza, tra le quali una di tipo cross-site scripting di cui Opera Software ha per il momento preferito non divulgare i dettagli

Oslo – Negli scorsi giorni Opera Software ha rilasciato una nuova versione del proprio browser web, la 9.52, che corregge sette vulnerabilità di sicurezza alcune delle quali potenzialmente gravi.

L’azienda norvegese ha classificato la serietà di questi bug da “extremely severe” a “not severe”, ma di una di queste debolezze non sono ancora noti i dettagli: nel descriverla, Opera Software si è limitata a dire che si tratta di una falla cross-site scripting segnalata da un ricercatore di Casaba Security .

La scelta di non pubblicare i dettagli di una delle sette vulnerabilità di Opera ha fatto discutere, ma la società norvegese si è difesa sostenendo che questa decisione è stata presa nel pieno interesse degli altri vendor. Secondo Opera Software, infatti, questa vulnerabilità interesserebbe anche software di terze parti, software per i quali non è ancora stata rilasciata alcuna patch.

Un elenco di tutte le falle corrette da Opera 9.52 è riportato in questo advisory di Secunia. L’ultima versione del browser può essere scaricata da qui per Windows, Linux e Mac OS X.

La tua email sarà utilizzata per comunicarti se qualcuno risponde al tuo commento e non sarà pubblicato. Dichiari di avere preso visione e di accettare quanto previsto dalla informativa privacy

  • byz scrive:
    altro passo in avanti!
    Ma perche' non e' stato sviluppato un plug-in per GIMP?Stream computing... :) gia' sentito questo termine :)
  • ubuntu user scrive:
    E' ANCHE PER LINUX!!!
    Vorrei far notare alla gentile redazione che il toolkit in oggetto è anche disponibile per Linux a 32bit e 64bit, di cui sono disponibili i pacchetti per le distribuzioni più diffuse. Spero che sia solo una dimenticanza, visto che P.I. è sempre molto attenta al mondo dell'open source. grazie
  • Marco Marcoaldi scrive:
    Come Volevasi Dimostrare !
    http://www.j3njy.it/2008/06/29/una-potenza-di-calcolo-quasi-da-35-milioni-di-euro-a-4000-euro-nvidia-gpu-cuda-framework/
    • Mosquito scrive:
      Re: Come Volevasi Dimostrare !
      a me me sembrava che fosse in singola precisione ergo il megacluster IBM non lo sostiuisci ancora, ma siamo lì, la prox generazione di supercomputer che includerà questi sviluppi cosa farà?
      • Robba scrive:
        Re: Come Volevasi Dimostrare !
        - Scritto da: Mosquito
        a me me sembrava che fosse in singola precisione
        ergo il megacluster IBM non lo sostiuisci ancora,
        ma siamo lì, la prox generazione di supercomputer
        che includerà questi sviluppi cosa
        farà?In effetti anche in base a cio che dici cito un interessante statisticahttp://fah-web.stanford.edu/cgi-bin/main.py?qtype=osstatsSi possono notare i divari fra GPU e Cell, non pochi i Tera di differenzaCmq quanto dici è interessante notare la capacità cell che come risaputo della singola precisione non è proprio il suo forte...
    • prrrrr scrive:
      Re: Come Volevasi Dimostrare !
      forse ti sfuggono aluni particolari... sai la differenza fra singola e doppia precisione nel calcolo scentifico ?sai la differenza di ram tra quel cluster e quel pc ?sai quanti calcoli scentifici ci fai girare con solo 8 giga di ram(più i 2 giga delle gpu)? o pensi che spendano tutti quei soldi per ram che non utilizzata?
      • prrrrr scrive:
        Re: Come Volevasi Dimostrare !
        per non parlare della bandwidth totale della ram
        • Robba scrive:
          Re: Come Volevasi Dimostrare !
          Forse si o forse no cmq giusto per dare qlche indicazione riguardo i supercomputer...http://www.top500.org/lists/2008/06Noti quella scritta al primo posto con processore cell?Forse non sai che la bandwidth di un cell gia in commercio è:http://moss.csc.ncsu.edu/~mueller/cluster/ps3/Sicuramente dall'alto della tua conoscenza mi saprai dire che calcoli uscino di sola ram in esecuzione 8GB e cmq non sai che esistono diversi modi per raggiungere gli stessi scopi...Conosci il termine cluster sembra, conosci anche il termine calcolo distribuito?In sostanza se parliamo di un cluster che deve fornire servizi tipo DB, server ed altro ok la memoria non basta mai, se parliamo di calcolo brutale forse il T di memoria non necessita che dici?Forse contestualizzando...Grazie...
          • Robba scrive:
            Re: Come Volevasi Dimostrare !
            Ops manco anch'io di contestualizzare...Vabbe un'altra figuraccia cmq,cio che volevo dire è che puo essere un buon compromesso come macchina di calcolo anche una gpu o un cell non trovate?Poi riguardo alla precisione e al mio proc preferito...http://it.wikipedia.org/wiki/Cell_(processore)leggo:"Sia PPE che SPE supportano il calcolo vettoriale, istruzioni su una serie di dati strutturati in un array monodimensionale. Questi elementi possono essere interi o floating point. In questo modo ogni singolo SPE è capace di eseguire contemporaneamente la stessa operazione su 8 valori diversi (lavorando in singola precisione). Grazie a questo meccanismo la sua performance arriva a circa 25,6 gigaflops, dunque in teoria lavorando su precisione singola ogni singolo core ha potenzialità circa 8 volte maggiori di quelle di un Pentium IV con lo stesso clock, a precisione doppia le prestazioni diventano equivalenti. A livello teorico il Cell può arrivare dunque sino ai 204,8 GFLOPS lavorando in singola precisione, e 25 GFLOPS in precisione doppia, rispettivamente 64 e 8 volte quelle di un Pentium IV con lo stesso clock."Bho a me non pare male..
          • prrrrr scrive:
            Re: Come Volevasi Dimostrare !
            Mi riferivo a Marco che si è messo a paragonare un supercomputer da 3 mln con un pc da 4000 euro, mettendo a confronto i gflops nel calcolo in singola precisione ( quanto la maggior parte se non tutti i calcoli scientifici vengono fatti in doppia precisione), senza tener conto della RAM totale, della bandwidth totale della ram (256 schede madri,6400 MB/s della DDR2-800 ,in totale è più di un TB/s,che confrontato con la bandwidth di 4 schede video ti viene da ridere).Significa che a parita di processi attivi ogni processo ha a disposizione una banda maggiore.a sentire lui il suo bel pc da 4000 euro nei calcoli scientifici può competere con un super pc da 3 mln ( 60 % della potenza di un cluster dice lui).Se ci fai girare una simulazione che richiede mezzo terabyte di ram o più, come minimo quel pc impiega un tempo 30 volte maggiore per completare i calcoli.Vabbhè ,parliamo di un cluster che deve fornire servizi di DB, a parte che non ci sono dbms sviluppati per Cell e per cuda, sai quandi anni ci vogliono per svilupparne uno da zero ? o adattarne uno(ammesso che sia possibile) ? con i costi di sviluppo ti puoi permettere un superpc da TOP-500, per non parlare del fatto che cell e gpu sono ottimizzati per il calcolo in virgola mobile e a gestire un dbms non ce li vedo proprio.roadrunner: secondo te perchè hanno affiancato il cell a delle cpu opteron ?
  • SkZ scrive:
    Cuda e' anche per linux, anzi soprattutt
    Mi sembra grave la dimenticanza che Cuda e' anche per linux 32/64 dato che quando il tecnico Nvida lo presento' alla scuola di calcolo parallelo del cineca nel 2007 mostro' le capacita' e come usarlo sotto linux
Chiudi i commenti