La cortina di sicurezza di Blizzard è stata bucata, anche se al momento gli utenti non correrebbero rischi. La software house, autrice di best seller come Diablo III , avverte giocatori, utenti e pubblico della breccia e rassicura: le password erano superprotette.
L’ importante annuncio sulla sicurezza di Blizzard riporta che la società ha individuato un accesso non autorizzato alla sua rete interna, in conseguenza del quale ignoti criminali e/o hacker hanno avuto accesso agli indirizzi email degli utenti, alle domande di sicurezza (usate per confermare la propria identità durante il login) e quant’altro.
Fuoriuscite anche le versioni cifrate delle password di protezione degli account, anche se Blizzard dice di aver protetto le chiavi di accesso con il protocollo Secure Remote Password (SRP) e sarebbe quindi “estremamente difficile” estrapolare ogni singola password in chiaro.
In ogni caso le informazioni finanziarie (numeri delle carte di credito e dati sui dongle per l’autenticazione a doppio fattore) sono al sicuro, sostiene Blizzard, o per lo meno non sono state al momento scoperte “prove” di una loro compromissione. Per non correre rischi, nei prossimi giorni la società chiederà la modifica della password al prossimo accesso su Battle.net a tutti gli utenti.
Alfonso Maruccia
-
GPU Mali
ARM sta lavorando tantissimo sulle GPU, la 604 è la prima della serie 600, ne ha presentate già altre 4 più potenti...Non riesco però mai a trovare un'indicazione chiara della potenza computazionale... il che mi fa chiedere se queste GPU siano in grado davvero di mantenere le promesse che fanno.lindoRe: GPU Mali
- Scritto da: lindo> ARM sta lavorando tantissimo sulle GPU, la 604 è> la prima della serie 600, ne ha presentate già> altre 4 più> potenti...> Non riesco però mai a trovare un'indicazione> chiara della potenza computazionale... il che mi> fa chiedere se queste GPU siano in grado davvero> di mantenere le promesse che> fanno.Una GPU Arm Mali T-604 MP4 (QuadCore) presenta queste specifiche:2.1GPixels/s12.8GB/s di ampiezza di banda di memoria (LPDDR3 interfaccia a 64bit)A titolo di riferimento, due GPU di classe Mobile di precedente generazione: nVidia GT540M: 2.7GPixels/s28.8GB/s di ampiezza di banda di memoria (DDR3 interfaccia a 128bit)ATI Radeon 6470M: 2.8GPixels/s12.8GB/s di ampiezza di banda di memoria (DDR3 interfaccia a 64bit)SalutiRecon Nettecnologia da 32nm H-K metal gate? WOW!
Ero rimasto al fatto che gli ARM per costare meno usassero geometrie "vecchie" (90/65nm), ma se le fanno gia a 32nm... Mi sa che ARM lo mettera' in XXXX agli x86 nel giro di pochi anni, a meno che intel non giochera' sXXXXX come fece a suo tempo contro AMD.eh giaRe: tecnologia da 32nm H-K metal gate? WOW!
- Scritto da: eh gia> Ero rimasto al fatto che gli ARM per costare meno> usassero geometrie "vecchie" (90/65nm), ma se le> fanno gia a 32nm... gli ARM usano le tecnologie a disposizione delle aziende che li producono fisicamente.quelli a bassissimo consumo (usati ad esempio nei microcontroller) non scalano perché non serve.anzi finirebbero col consumare di più, a causa dell'aumento delle correnti parassiteMi sa che ARM lo mettera' in> XXXX agli x86 nel giro di pochi anni, io me lo auguro, anche se l'avrei detto in un altro modo...a meno che> intel non giochera' sXXXXX come fece a suo tempo> contro> AMD.questo è probabile che accada.però è una situazione diversa. Intel e AMD sono pur sempre x86, quindi concorrono (o concorrevano, quando AMD "tirava") sulla stessa architettura di base.Un portatile ARM anche molto sottile potrebbe, magari, avere 20 ore di autonomia, scalderebbe di meno, non avrebbe bisogno di ventole. Mentre Intel può continuare a puntare sulle alte prestazionilindoRe: tecnologia da 32nm H-K metal gate? WOW!
- Scritto da: eh gia> Mi sa che ARM lo mettera' in> XXXX agli x86 nel giro di pochi annipochi anni in informatica sono... troppi!...> a meno che> intel non giochera' sXXXXX come fece a suo tempo> contro AMD.come minimo, Intel parte da una situazione di forza nel suo "campo di gioco", però è anche vero che il mercato del PC tradizionale è in declino, e quello dei tablet in ascesa. Finora nel campo PC non abbiamo visto avverarsi le magnifiche promesse degli ARM (mi sbaglio?), ma qualcosa potrebbe anche cambiare.Peraltro, sto dicendo una boiata se immagino che Intel potrebbe anche decidere di buttarsi sui proXXXXXri ARM (intendo acquisendo le licenze per produrli, se gliele concedono...) o è fantainformatica?Non so, credo che magari un confronto sui fatturati potrebbe dare qualche indicazione...: voglio dire che Intel è grossa, parecchio grossa, e dovrebbe avere margini di manovra sui "propri" proXXXXXri (gli X86).OsvyRe: tecnologia da 32nm H-K metal gate? WOW!
- Scritto da: OsvyFinora nel campo> PC non abbiamo visto avverarsi le magnifiche> promesse degli ARM (mi sbaglio?), ma qualcosa> potrebbe anche> cambiare.una piacevole lettura sul legacy degli x86 (che comporta anche consumi più elevati rispetto ad altre archietetture che non devono portare avanti set di istruzioni a volte obsoleti) è reperibile qui:http://www.appuntidigitali.it/author/cesaredimauro/(i tre articoli iniziali)tra l'altro l'autore in un commento (commento #8 dell'articolo 2) alla domanda: quindi perche larchitettura ARM consuma mediamente 1/100 di quella x86 a parità di prestazioni?risponde: Non si può fornire una risposta generale. In parte ne abbiamo discusso nellarticolo precedente. Ad esempio lultima incarnazione di Atom per mobile ha consumi comparabili a soluzioni ARM con prestazioni similari.Per contro, non esistono ancora ARM con prestazioni abbastanza aggressive da impensierire Intel. Si aspetta lA15, che dovrebbe arrivare a breve, e successivamente ARM64 a 64 bit, ma a naso non credo che cambierà poi molto.giuliaIRe: tecnologia da 32nm H-K metal gate? WOW!
- Scritto da: giuliaI> - Scritto da: Osvy> una piacevole lettura sul legacy degli x86 (che> comporta anche consumi più elevati rispetto ad> altre architetture che non devono portare avanti> set di istruzioni a volte obsoleti) è reperibile> qui:> http://www.appuntidigitali.it/author/cesaredimauro> (i tre articoli iniziali)ottimo> tra l'altro l'autore in un commento (commento #8> dell'articolo 2) alla domanda: quindi perche> larchitettura ARM consuma mediamente 1/100 di> quella x86 a parità di prestazioni?perbacco.. forse perché Intel è azionista di aziende di produzione elettrica? ;-) > risponde: Non si può fornire una risposta> generale. In parte ne abbiamo discusso> nellarticolo precedente. Ad esempio lultima> incarnazione di Atom per mobile ha consumi> comparabili a soluzioni ARM con prestazioni> similari.ecco, appunto: quando si discute in teoria è una cosa, poi si arriva al concreto e saltano fuori sorprese... grazie> Per contro, non esistono ancora ARM con> prestazioni abbastanza aggressive da impensierire> Intel. Si aspetta lA15, che dovrebbe arrivare a> breve, e successivamente ARM64 a 64 bit, ma a> naso non credo che cambierà poi molto.OsvyRe: tecnologia da 32nm H-K metal gate? WOW!
ma a> naso non credo che cambierà poi> molto."a naso", considerazione molto tecnica...i cortex A9 che equipaggiano oggi gli smartphone di fascia alta sono praticamente obsoleti, spesso anche a livello di proXXXXX costruttivo (45 nm)... vedremo i dati degli A15 e dei nuovi core v8 a 64 bit a 32, 28 e 20nm, poi si potrà discuterne. è con quei proXXXXXri che andranno confrontati gli ultimi Atom. Poi li voglio vedere su un "vero" smartphone nell'uso quotidiano, non su una piattaforma di prova ad hoc per i 3 o 4 testlindoRe: tecnologia da 32nm H-K metal gate? WOW!
Se ė per quello stanno giá lavorando alla tecnologia Finfet a 20 nmJames KirkCool
i server ARM si avvicinano sempre di piu?Cmq un quad core in un cellulare a me sembra veramente inutile. A parte i soliti gamer, gli altri possono giusto apprezzare qualche effetto grafico in piu, ma insomma per me l'unica cosa ancora troppo lenta sui cellualari e la macchina fotograica.ruttoloGrazie, il tuo commento è in fase di approvazioneGrazie, il tuo commento è stato pubblicatoCommento non inviatoGrazie per esserti iscritto alla nostra newsletterOops, la registrazione alla newsletter non è andata a buon fine. Riprova.Leggi gli altri commentiPubblicato il 10 ago 2012Ti potrebbe interessare