Quello che stiamo per fare, è un viaggio attraverso il quale scopriremo come siamo stati spettatori inconsapevoli dell’evoluzione di un concetto che sarà al centro di qualsiasi nuova tecnologia. In futuro, infatti, non comunicheremo verbalmente con la tecnologia, perlomeno non esclusivamente.
Siri, Cortana e l’assistente vocale di Android ci dimostrano che stiamo tentando di parlare ai nostri device già da anni, ma come lo faremo? In attesa che le macchine imparino bene a dialogare con noi, facciamo un passo indietro e torniamo a quando i nostri antenati parlavano coi gesti; del resto l’evoluzione del linguaggio umano parte da lì e probabilmente la tecnologia ha bisogno di uno stesso schema evolutivo. Quelle che pensiamo essere intelligenze artificiali che comunicano verbalmente con noi, altro non sono che interfacce programmate per rispondere in un certo modo a una certa domanda. Un modo più carino di impartire comandi vocali, ma tra 20 anni, come adesso, non avremo voglia di urlare al nostro televisore di cambiare canale e quindi sarà con un semplice gesto della mano che potremo annullare il volume o passare a una lista di programmi preferiti e sceglierne uno.

La parola chiave è Gesture Recognition: ovvero il potere che ha un programma di riconoscere un gesto delle mani di una persona (ma anche il linguaggio del corpo o le espressioni facciali) e a questo associare un’operazione da svolgere. Gli utilizzi più interessanti vengono dal genio di certi “smanettoni” che non lavorando per compagnie milionarie usano un po’ quello che hanno a portata di mano per sperimentare.
Per questo motivo il campo dei videogiochi è sempre stato un buon magazzino da cui reperire tecnologie e idee. Mentre Playstaion e Nintendo rivoluzionavano il mondo delle console, introducendo controller sensibili al movimento del giocatore e capaci di darci una nuova esperienza dinamica di gioco, Microsoft rivoluziona ulteriormente il concetto eliminando pure questo elemento dalla nostra esperienza ludica: se con Playstation e Nintendo il nuovo joystick è un “bastoncino” capace di simulare una racchetta da ping pong o una spada, con Microsoft Kinect il nostro corpo viene tracciato dalla tecnologia Kinect e i suoi movimenti trasferiti a un avatar in game, tutto ciò solitamente davanti al televisore in piedi. Moltissimi programmatori hanno preso questo oggetto magico “il Kinect” e con l’aiuto di Microsoft lo hanno collegato al computer ed hanno iniziato a farne usi per il quale non era inizialmente destinato.
Il Kinect si è così accaparrato tutto il campo della Gesture Recognition low cost. Oggi, piccole startup e grandi compagnie stanno  investendo molto nel settore. Le persone disabili (sordo-muti) domani potrebbero trovare delle interfacce digitali capaci di riconoscere il linguaggio dei segni e così comunicare con esse. Alcune prestigiose compagnie di automobili hanno implementato strumenti per monitorare il guidatore, intercettando segnali che possono precedere pericolosissimi colpi di sonno e, a proposito di sonno, una compagnia di caffè d’oltre oceano ha fatto in modo che il proprio distributore automatico, situato all’interno di un aeroporto, non facesse pagare il caffè a chi sbadigliava durante la coda (quindi telecamere, gesture recognition, software capaci di interpretare il gesto dello sbadiglio).
Partendo dalla televisione, che ci permette di cambiare canale come se sfogliassimo un libro, è molto facile immaginare un’intera casa intelligente controllata da gesti. Non dimentichiamoci poi del campo dell’informatica, arricchito da un altro device capace di tracciare perfettamente l’esclusivo movimento delle nostre mani, il Leap Motion. Questo piccolissimo Kinect in miniatura ci consente di vedere le nostre mani all’interno di giochi, simulazioni e software di editing di ogni tipo, il tutto con una latenza pari a zero. Potremo, anzi possiamo, progettare un oggetto in 3 dimensioni, rotearlo, persino dipingerlo come se le nostre mani fossero all’interno dello schermo che abbiamo davanti. C’è voluto pochissimo prima che il Leap Motion venisse utilizzato anche all’interno della realtà virtuale. Questo ci consente di vedere le nostre mani e di immergerci maggiormente nell’ambiente virtuale interagendo finalmente con esso senza indossare neppure un paio di guanti.
Adesso immaginiamo il futuro, la robotica, gli usi militari e la medicina: la nostra unica speranza è di non diventare così pigri da voler cambiare canale direttamente col pensiero.

0