Laurea via avatar? 110 e lode

Laurea via avatar? 110 e lode

E' andata bene, molto bene, ai due studenti di Architettura di Roma che hanno discusso la loro tesi di laurea animando ed esprimendosi attraverso due avatar tridimensionali e interattivi. Digital Puppetry docet
E' andata bene, molto bene, ai due studenti di Architettura di Roma che hanno discusso la loro tesi di laurea animando ed esprimendosi attraverso due avatar tridimensionali e interattivi. Digital Puppetry docet

C’era la ressa ieri all’Aula Magna della Facoltà di Architettura a Valle Giulia, a Roma, per un evento che non sembra proprio avere precedenti: la discussione di una tesi di laurea del Corso triennale in Grafica e Progettazione Multimediale effettuata attraverso due avatar tridimensionali, frutto del lavoro e dell’inventiva dei due studenti Matteo Loddo e Alessandro Ciaralli. Si tratta quindi di una discussione “digital” presso una università di tipo tradizionale, non per una università online.  L’esperimento è andato benissimo: entrambi i laureandi sono usciti dall’evento con un 110 e lode e, spiega a Punto Informatico Franco Tomassi, amministratore e fondatore di Pool Factory, motore tecnologico dell’evento, “con una soddisfazione meritata dopo tanto impegno”.

Studenti reali e avatar virtuali

Le premesse c’erano tutte: ampia copertura mediatica, una presentazione, con notevoli spunti comici, e una interazione estremamente fluida e molto divertente con i docenti e la folta platea assiepata per l’occasione. L’hanno definita la prima laurea in digital puppetry ed è una definizione che ben si attaglia al singolare esperimento.

Non si tratta di Second Life, evidentemente, né dei mondi 3D a cui si è abituati online, ma di un insieme di tecnologie di motion capture e rendering tridimensionale che consentono agli avatar di “vivere”: muoversi, danzare, cantare, parlare, suonare strumenti virtuali.

“Il Motion Capture – spiegano gli autori dell’apparato usato dai due studenti – è un dispositivo tecnologico hardware/software che consente di memorizzare il movimento del corpo di un performer umano, per trasferire poi questi movimenti a un personaggio “virtuale” e animarlo. Nella sua versione Real Time il movimento del performer viene trasferito al personaggio 3D in perfetta sincronia”.

Ed è per questo che i due studenti hanno potuto controllare l’animazione di ogni aspetto dei singoli avatar: il volto, le labbra, gli occhi, le dita e via dicendo. “Il sistema – si legge in una presentazione – emette dei raggi infrarossi che sono riflessi da una serie di marcatori posizionati sulle articolazioni del performer e poi ricaptati da speciali camere disposte attorno all’area di ripresa. In questo modo il sistema registra lo spostamento nello spazio di ognuno dei marcatori le cui traiettorie descrivono, nella loro globalità, il movimento completo di corpo, mani e volto”. Niente “escoscheletri” o apparati ingombanti come in altre tecnologie, ma interfacce “multi touch pad” (vedi qui sotto) e stazioni grafiche 3D dedicate alla presentazione.

L'interfaccia.. sensoriale

Si tratta di una discussione di tesi sui generis proprio perché ha presentato non solo il lavoro dei due studenti ma anche le tecnologie realizzate da The Pool Factory in partnership con il Gruppo di Bioingegneria dello IUSM di Roma e con la collaborazione del distributore italiano del sistema Vicon Motion Capture, Aurion srl di Milano .

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
22 nov 2007
Link copiato negli appunti