Interfacce evolute: oltre il touch-screen

di Alessia Valentini

scritto il

Gestire i device via touch è ormai comune. Le nuove frontiere dell'interazione? Linguaggio naturale, tastiere intelligenti, motion sensing, scratch, skin e optical Input

Attualmente, sono disponibili sul mercato sistemi in grado di rispondere alle crescenti esigenze di mobilità e interazione rapida, rendendo più user-frienldy i devise digitali. Su numerosi smartphone, ad esempio, è possibile interagire via touchscreen, eliminando tastiera e in diversi notebook anche il mouse. Sistemi operativi come Palm webOS e tecnologie come Microsoft Surface implementano anche il multi-touch per la gestione di qualsiasi funzione, semplificando anche la navigazione web.

Linguaggio naturale

Tra le nuove frontiere dell’interazione, troviamo il linguaggio naturale, e in particolare il riconoscimento vocale dei comandi. Ad oggi i sistemi di questo tipo sono basati su modelli e dialetti (le “restrizioni” dell’intero linguaggio naturale) che limitano i comandi vocali a un insieme preciso di termini, eliminando le ambiguità proprie di ogni linguaggio naturale.

Le applicazioni? Tanto per cominciare, prototipi di stereo (selezione della musica) e modelli di GPS (ricerca di destinazioni e punti di interesse). L’implementazione di sistemi di speech richiede però ampia capacità elaborativa (dual o quad core). La versione 10 di un software vocale tra i più noti, Dragon (che permette di dettare un testo senza usare la tastiera), è oggi molto accurata ma per alcuni utenti anche questo elevato livello di efficacia potrebbe non bastare.

Tastiere intelligenti

Tradizionale e al contempo innovativa, la tastiera Typeright – sviluppata in Germania presso l’università di Aachen – è dotata di un sistema hardware e software aggiuntivo, che le consente di correggere automaticamente gli errori di battitura prima che siano effettuati.

Un sistema di riconoscimento automatico delle parole, basato su un dizionario di 46.000 lemmi, permette alla tastiera di selezionare i tasti corretti rispetto a quelli sbagliati che vengono resi più difficili da premere o bloccati. In questo modo l’utente percepisce la difficoltà di pressione dei tasti sbagliati e facilmente digita solo quelli corretti!

Dagli studi condotti sulle percentuali di diminuzione degli errori, è emerso che gli errori di battitura sono diminuiti del 46%, mentre la prevenzione degli errori è arrivata all’87%. Tra i benefici, anche un miglioramento del 12% nella velocità di battitura.

Motion sensing

Per chi ricorda il film culto Minority Report e le veloci interazioni di Tom Cruise con il monitor del computer, sappiate che non si tratta più di fantascienza ma di una realtà possibile: all’ultimo CES di Las Vegas, la start-up israeliana PrimeSense ha presentato una nuova tecnologia di interazione basata sui movimenti del corpo per selezionare e gestire apparecchi digitali.

Basata sul sensore prime, PrimeSensor è costituito da videocamera, microfono e sensori da applicare sopra lo schermo. Il sensore proietta un raggio di luce con una lunghezza d’onda vicina all’infrarosso per creare una mappa 3D delle immagini e, a partire dal primo movimento del palmo della mano, inizia a tracciare le figure. Il raggio d’azione arriva fino a 6 metri dal dispositivo ma la distanza ideale è 1 o 2 metri.

L’interfaccia USB permette di collegare il sensore ad un qualunque device: l’input di comandi per le applicazioni avviene sulla base dell’interpretazione di movimenti catturati da dati visuali di profondità e colore. Ad esempio, nel caso di gestione dei documenti, sullo schermo del dispositivo appaiono due grandi mani grigie che cambiano colore in rosso quando attivate dal movimento utente. Le interazioni possibili, (seleziona, cambia pagina, evidenzia, cancella, ruota), seguono fedelmente i gesti dell’utente.

Scratch, skin e optical Input

Presso la Carnegie Mellon University, è stato implementato un metodo innovativo per interagire con i telefonini ricorrendo al fruscio delle unghie.

Si chiama Scratch Input e permette di utilizzarle su qualunque materiale ruvido (scrivania, tessuti, paretoi…) per impartire comandi. L’intero sistemasi basa su un sensore acustico prodotto da uno stetoscopio, che isola il suono delle unghie tra i 6mila e i 13mila Hertz.

Altra declinazione di questa tecnologia è lo Skin Input: si usa il palmo della mano (o qualunque superficie corporea) come un touchpad, per gestire i comandi di piccoli strumenti mobili compresi i telefonini. In questo caso la tecnologia risiede in un sensore bio-acustico e in un sistema di apprendimento del computer, tali da acquisire e riconoscere i movimenti impartiti sul touchpad visibile sulla superficie corporea. Con questo sistema tutta la pelle può essere considerata uno strumento di input.

Infine sempre allo stesso team si deve lo strumento Minput che consente l’interazione mediante la vista. Il sistema richiede di installare due sensori di tracking ottico sul retro del device che si vuole gestire e al resto ci pensano tecniche di interazione basate sulla vista, che interpretano i movimenti oculari per effettuare selezione, scelte sì/no, rotazioni o ogni altra modalità in interazione possibile.