Il nuovo telecomando? L'espressione del volto

Il nuovo telecomando? L'espressione del volto

Faccia perplessa? Il robodocente si ferma. Se invece si annuisce, la lezione continua. Questo ed altro con il nuovo concept sul riconoscimento del volto, progettato dall'Università di San Diego
Faccia perplessa? Il robodocente si ferma. Se invece si annuisce, la lezione continua. Questo ed altro con il nuovo concept sul riconoscimento del volto, progettato dall'Università di San Diego

Da tanto si parla di riconoscimento facciale, da tanto si tenta di utilizzare il volto per trarne segnali da sfruttare in ogni modo . Ora l’ Università di San Diego vuole aggiungervi un ulteriore utilizzo: sfruttare il volto come telecomando e dare il la a numerosissime applicazioni.

È quanto ha progettato Jacob Whitehill, laureando in informatica della Jacobs School of Engineering dell’Ateneo: basarsi sulle tecnologie di rivelazione dell’espressione facciale in sviluppo presso il Machine Perception Laboratory ( MPLab ) che fa parte dell’ Istituto di Computazione Neurale per creare un vero e proprio telecomando intelligente .

In un recente studio, Whitehill e i suoi colleghi hanno dimostrato che le informazioni trasmesse dall’espressione del pubblico durante la visione e l’ascolto di letture didattiche preregistrate può essere sfruttata per comprendere, ad esempio, la velocità di lettura che in quel momento sarebbe più efficace. Altro dato interessante – in grado di essere rilevato dal concept – è il grado di difficoltà di comprensione percepito da chi ascolta.

Questo studio si colloca, infatti, laddove le tecniche di riconoscimento facciale e i sistemi automatizzati di insegnamento si intersecano: “Se sono uno studente che ha davanti un insegnante robotizzato e in un determinato momento sono confuso, ho difficoltà a capire e il robot continua ad andare avanti nella lezione, il risultato didattico decade rapidamente. Se, invece, il robot si fermasse e dicesse potresti essere confuso e io potessi replicare Esatto, grazie per la pausa , (il risultato didattico, ndR) sarebbe molto più efficace”, dice il laureando.

Per condurre il suo studio, Whitehill ha voluto applicare il procedimento con diversi linguaggi e diverse cadenze, in modo da avere a disposizione una casistica la più vasta possibile. “Ho voluto avere più indicazioni su come studenti e insegnanti usano modulare la voce per arricchire i propri argomenti. Questo per me è essenziale per ottimizzare l’interazione tra di loro nelle simulazioni”.

Al momento, Whitehill ha fatto interagire il proprio sistema con la velocità di riproduzione di una lettura didattica preregistrata, mettendola anche in pausa di fronte a quei segnali facciali che, secondo il software, rivelano “mancanza di assenso” o evidenziano “troppo scarsa comprensione”.

“Vedo che lei annuisce con il capo – ha detto Whitehill durante l’intervista rilasciata a Science Daily – Ciò mi conferma che lei ha capito e che posso procedere. Se avesse avuto un’espressione perplessa, sarebbe stato per me il segnale per fermarmi per un po’”.

Per chi vuole approfondire, l’Ateneo ha pubblicato su questa pagina il concept progettato dal laureando e ha registrato in questo filmato (file ASX che ridirige su un filmato Windows Media Video) l’interazione tra il sistema progettato e la riproduzione di un filmato.

Marco Valerio Principato

fonte immagine

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
30 giu 2008
Link copiato negli appunti