Reti neurali, meglio se con le GPU

NVIDIA illustra una nuova ricerca sulle reti neurali che taglia sull'hardware e l'energia elettrica necessari grazie all'impiego delle sue GPU. Mentre Microsoft migliora le performance del riconoscimento vocale su Windows Phone
NVIDIA illustra una nuova ricerca sulle reti neurali che taglia sull'hardware e l'energia elettrica necessari grazie all'impiego delle sue GPU. Mentre Microsoft migliora le performance del riconoscimento vocale su Windows Phone

Se Google ha impiegato ben 1.000 PC per simulare la sua rete neurale con riconoscimento-gattini incorporato, NVIDIA sostiene di poter ridurre quel numero a una manciata grazie all’utilizzo delle unità acceleratici GPU (usate in questo caso per calcoli GPGPU) basate su architettura Kepler e comunemente disponibili in commercio a un prezzo (relativamente) contenuto.

NVIDIA ha collaborato con i ricercatori della Stanford University per replicare (incrementandole di 6,5 volte) le capacità computazionali del setup di Google, ma in questo caso la rete neurale è alimentata dalla potenza bruta di 16 macchine equipaggiante con schede grafiche GeForce GTX 680 – nella versione con 4 Gigabyte di memoria RAM.

Alla nuova rete artificiale super-potenziata dalle GPU ha collaborato Andrew Ng, ricercatore già impegnato in precedenza nel progetto di rete neurale gattino-dipendente di Google svelato l’anno scorso e ora surclassata dal nuovo design basato su schede GeForce pensato da NVIDIA.

Che si tratti di macchine basate su CPU, GPU o design ibridi, a ogni modo, le reti neurali artificiali hanno già svariate potenzialità applicative e altre se ne aggiungono di continuo. Microsoft, ad esempio, ha usato questo genere di tecnologia per raddoppiare la velocità di riconoscimento vocale di Bing su gadget Windows Phone e migliorare l’accuratezza del riconoscimento del 15 per cento.

Alfonso Maruccia

Link copiato negli appunti

Ti potrebbe interessare

19 06 2013
Link copiato negli appunti