Il multi-touch senza touch

Il multi-touch senza touch

Sembra un'invenzione da film di fantascienza, ed in effetti lo è. Tutto quello che avreste voluto da un'interfaccia touch e che avete sempre osato chiedere. Si muovono le dita nello spazio o si gratta il muro: tutto fa desktop
Sembra un'invenzione da film di fantascienza, ed in effetti lo è. Tutto quello che avreste voluto da un'interfaccia touch e che avete sempre osato chiedere. Si muovono le dita nello spazio o si gratta il muro: tutto fa desktop

Guardando il video che presenta l’interfaccia tattile che non si tocca sviluppata dalla californiana Oblong Industries , il cinefilo più accanito rischia di restare senza fiato: sullo schermo scorrono immagini che ricordano da vicino Tom Cruise che interagisce con i futuribili computer del film di Steven Spielberg Minority Report : con l’unica differenza che quest’ultimo è pura funzione fantascientifica, mentre l’ interfaccia multi-touch e multi-gestoure di Oblong, chiamata g-speak , è realtà.

Le somiglianze non sono per niente casuali: John Underkoffler , chief scientist dell’azienda, è stato il consulente tecnico del film in questione e ha ovviamente basato i consigli forniti agli attori e al regista sulla sua esperienza personale. Che inizia al MIT negli anni ’90 e finisce oggi, in Oblong Industries e nella sua interfaccia innovativa. L’obiettivo, dichiaratamente ambizioso, è quello di rivoluzionare una volta per tutte il modo in cui gli esseri umani entrano in contatto con i computer, e anche il modo in cui le informazioni vengono rappresentate, gestite, fruite.

Con un gesto si spostano le informazioni da uno schermo all’altro, con un gesto si possono selezionare più informazioni e trascinarle da quanto è mostrato nei maxi-pannelli verticali al più piccolo monitor orizzontale. Per ruotare un’immagine occorre afferrarne un capo con due dita e applicare una sorta di spinta virtuale con la mano libera. Un’applicazione che è multidesktop e multitasking, ma che trascende il concetto del paradigma della scrivania e si concentra piuttosto sulla gestione dei contenuti a prescindere dalle limitazioni che mouse e tastiere di solito impongono agli utenti.

Con due guanti dotati di sensori alle mani e quelle che sembrano una serie di telecamere che ne riprendono il movimento, g-speak vuole trasformarsi in un perfetto sostituto delle interfacce tradizionali: il lavoro del PARC e di Apple per lo sviluppo di icone, finestre e puntatori viene identificato come la rivoluzione precedente nel campo dell’interazione uomo-macchina, che ora però deve essere superata dall’approccio gestuale e in un certo senso non mediato delle dita reali che manipolano gli oggetti virtuali.

Il risultato, secondo gli sviluppatori, è un ambiente di lavoro facile da usare, già pronto per offrire a due o più individui di collaborare sulla stessa area dello schermo , e garantire un’adeguata integrazione del desktop (ammesso abbia ancora senso chiamare così l’ambiente tridimensionale di g-speak) in rete. E lo sforzo si distribuisce su tre livelli: la costruzione di un’architettura differente, la realizzazione di un’interfaccia grafica, la scrittura di applicazioni in grado di sfruttare entrambe.

Quanto sia complicato sviluppare un software per g-speak è un mistero, ma in ogni caso esistono già kit di sviluppo per Linux e Mac . Oblong Industries si dice disponibile anche a fornire supporto per la creazioni di applicazioni che rispondano a esigenze specifiche degli acquirenti. Ci sarebbero inoltre già alcune installazioni funzionanti di g-speak, anche in alcune grandi aziende, sia di grandi dimensioni sia adatte all’uso di un singolo utente per volta.

G-speak è, in ogni caso, un prodotto finito e non una beta. È in vendita, anche se il prezzo è solo su richiesta, a chiunque sia interessato: tra i settori che secondo l’azienda possono trarre maggior profitto da questa nuova interfaccia ci sono quello finanziario, la logistica e l’intelligence (militare e non), gli analisti dati, i medici, i grafici e ovviamente chi è impegnato nella presentazione di prodotti al pubblico.

Quello che invece è senz’altro una beta è lo Scratch Input creato da Scott Hudson e Chris Harrison, della Carnegie Mellon University . Ancora un’interfaccia gestuale, che questa volta invece di essere ottica è acustica: la registrazione con uno stetoscopio del rumore delle dita su un tavolo o una parete può essere trasformato in un messaggio codificato, ancora una volta gesture, che controlla un’applicazione di un computer.

Sfruttando la trasmissione nel materiale denso di un muro o di un tavolo del segnale ad alta frequenza generato dallo sfregamento, le informazioni possono essere catturate anche a metri di distanza dalla sorgente senza problemi. Persino il corpo umano, che per gran parte è costituito d’acqua, si rivela essere un discreto strumento di trasmissione a corto raggio per questo tipo di rumore: con il microfono messo nel posto giusto, si potrebbe tranquillamente pensare di digitare su uno schermo raspando sulla gamba.

Il movimento delle dita che descrivono gesti codificati è peculiare: il computer identifica il movimento attraverso le accelerazioni e lo spostamento sulla superficie, e li traduce nei comandi stabiliti. I suoi inventori assicurano che il tutto potrebbe essere tranquillamente inglobato in dispositivi grandi e piccoli . Ad esempio un cellulare dotato di questa tecnologia, e appoggiato sulla scrivania a casa o al lavoro, potrebbe essere posto in modalità silenziosa semplicemente grattando un po’ il tavolo. Nel loro studio , Harrison e Hudson sostengono che in pochi minuti chiunque può diventare pratico dei gesti necessari, e che il risultato è ottimale nel 90 per cento dei casi.

Luca Annunziata

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il 17 nov 2008
Link copiato negli appunti