Dzieci za kilka lat będą kręciły głową z niedowierzaniem, nie mogąc pojąć, jak to możliwe, że do obsługi telefonu komórkowego używaliśmy pięciu palców, a  komputera – dziesięciu. Będzie dla nich oczywiste to, co już dziś próbują nam przekazać projektanci nowoczesnych interfejsów użytkownika: że do pracy i zabawy będziemy potrzebować całego ciała.

Nie chodzi jednak o żadną formę przymusowej aktywności fizycznej, tylko o  sterowanie za pomocą gestów. Już dziś korzystamy z ich namiastki: szczypiąc ekran komórki, by zmniejszyć czcionkę, czy przesuwając palec od jednej krawędzi do drugiej, by odebrać rozmowę. Dzisiejsze gesty są jednak tak samo śmieszne, jak urzędy wymagające przynoszenia danych na dyskietkach, które niemal wyszły już z użycia.

Na pierwszy ogień – gry Pierwszą oznaką, że zmieni się sposób naszej komunikacji z elektroniką, były czujniki ruchu wprowadzone w konsolach do gier. Zarówno Nintendo w swoim Wii, jak i Microsoft w Xboxie 360 miały funkcje wykrywania ruchu. Ta druga firma poszła o krok dalej, umożliwiając sterowanie całym urządzeniem za pomocą ruchów rąk (jak w filmie „Raport mniejszości”), choć nie działało to bezbłędnie.

Szybko pojawiło się mnóstwo gier, także na trzecią dużą platformę – PlayStation 3 firmy Sony – w których trzeba było wyginać ciało. Aplikacje pomagające utrzymać formę, sprawdzające, czy poprawnie wykonujemy pompki, skłony i taneczne ruchy, zaczęły się wysypywać jak grzyby po deszczu. Microsoft był zdecydowanie najbliżej wizji, która może ziścić się lada dzień: do korzystania z ich technologii potrzeba było wyłącznie ciała.

Palcem w powietrzu

Ekrany komputerów, telefonów i tabletów są jednak wciąż w tyle za konsolami – choć wiele z nich reaguje na dotyk. Przykładem bardzo zaawansowanego rozwiązania jest najnowsza wersja systemu operacyjnego dla telefonów BlackBerry o numerze 10, w której wykonanie ruchu palcem do góry i w lewo po ekranie pozwala przejść do poprzedniej aplikacji, a inne kombinacje odpowiadają za uruchamianie aplikacji albo wyświetlanie ich listy. Firma Research In Motion, producent telefonu, tak dalece zaufała gestom, że zrezygnowała z przycisków w telefonie.

Rok 2013 ma przynieść przełom w  sterowaniu gestami. Nie będziemy już zmuszeni do rysowania linii na ekranach – będziemy to robić w powietrzu. Największe wrażenie robi rozwiązanie firmy Leap Motion: mała przystawka do komputera pozwoli pisać, sterować mapami, grami i programami za pomocą ruchów dłoni, a także rozpoznawać pismo ręczne – wprowadzane poprzez pisanie palcem w powietrzu przez użytkownika.

Ciekawe są też zmiany wprowadzone do czwartego modelu flagowego  smartfona Galaxy firmy Samsung. To telefon,  którego przednia kamera przez cały czas obserwuje właściciela. Użytkownikowi, któremu nie podoba się aktualnie odtwarzany utwór, wystarczy jeden ruch głowy, by go zmienić. Chcesz odebrać rozmowę? Kiwnij głową. A może odczytać nowości na Twitterze?  Odpowiedni ruch ręką, bez dotykania telefonu, załatwi sprawę. Samsung  zapowiada też funkcje oparte na śledzeniu ruchu gałek ocznych – odtwarzanie
plików wideo ma się zatrzymać, gdy użytkownik przeniesie wzrok gdzie indziej
a tekst ma się przewinąć niżej, gdy dojedziemy z czytaniem do końca  widocznego na ekranie tekstu.

Prąd z mięśni

Nad zaawansowanym systemem do odczytywania gestów pracuje Microsoft. Będzie to bransoletka przetwarzająca ruchy dłoni na trójwymiarowe siatki, dzięki którym komputer pojmie intencje użytkownika. Taka bransoletka jest rozwinięciem stosowanego do tej pory w tym samym celu Kinecta.

W Kinekcie kamery na podczerwień umieszczone pod telewizorem odczytują pozycję kilkunastu punktów na całym ciele użytkownika, co przekłada się na niezbyt dużą dokładność, gdy idzie o szczegóły. Taka sama bateria kamer podczerwonych, umieszczonych po wewnętrznej stronie nadgarstka, będzie dużo precyzyjniej interpretować ruchy dłoni. Możliwe ma być nie tylko sterowanie systemem kina domowego, ale także obsługa smartfonów i gier wideo.

Urządzenie o nazwie kodowej „Digits” jest na etapie dość rozbudowanego prototypu. Zanim nie zmniejszy się jego rozmiarów, nie ma co mówić o  rynkowej adaptacji. Być może w tę niszę wstrzeli się więc Myo – inna  bransoletka, znacznie bardziej kompaktowa. Myo będziemy nosić niczym tenisista opaskę do wycierania czoła – na przedramieniu lub nadgarstku. Urządzenie będzie lekkie i cienkie – nie wyposażono go bowiem w kamery, lasery ani fotodiody.

Wynalazek odczytuje zmiany w napięciu elektrycznym generowanym przez  mięśnie człowieka. Ruch palców powodowany jest bowiem przez skurcze mięśni przebiegających przez przedramię (są to tzw. zginacze, prostowniki i  odwodziciele). Skurcze mięśni zaś wiążą się z przepływem jonów, czyli  naładowanych elektrycznie atomów. Bransoletka ma trafić do sprzedaży
na początku przyszłego roku. Już teraz na stronie producenta można składać
zamówienia. Urządzenie kosztuje 150 dolarów.

Rosjanie robią mgłę

Do boju stają także inne firmy. Pośród nich Microchip, który ma ambicję uczynić
odczytywanie gestów popularnym i tanim. Proponowane rozwiązanie to układ
elektroniczny, który analizuje zmiany pola elektrycznego, tworzącego się przed wyświetlaczem czy telewizorem. W przeciwieństwie do kamer nie wymaga kalibrowania, nie ma także martwego pola, w którym nie widać byłoby gestów.
Z kolei firma Syntact stworzyła obsługiwany gestami instrument muzyczny,
i ma ambicję zmienić sposób, w jaki pracują artyści: za pomocą dłoni będzie
można komponować rozbudowane utwory z przygotowanych wcześniej elementów składowych. Dłoń muzyka, niczym pałeczka dyrygenta, pozwoli dojść do głosu coraz to innym partiom dźwiękowym.