Wirtualna klawiatura gdziekolwiek jesteś. Nowe narzędzie od Facebooka ma odczytywać ruchy mięśni

Andrew Bosworth, szef Facebooka ds. rozszerzonej i wirtualnej rzeczywistości, ujawnił plany budowy urządzenia, które pozwoli użytkownikom pisać na wirtualnej klawiaturze na dowolnej powierzchni i w dowolnym miejscu. Ale to tylko jedna z wielu funkcji, jakie ma posiadać jeszcze nienazwane narzędzie.

Pierwsze doniesienia o nowym projekcie Facebooka pojawiły się na początku marca. Na Twitterze Boswortha pojawiło się zdjęcie tajemniczego urządzenia. Sprzęt noszony jest na nadgarstku i wyglądem przypomina masywny smartwatch. Kolejny tweet zaprezentował ludzką dłoń wyposażoną w przenośne urządzenie, a obok – graficzny model komputerowy, odwzorowujący ruchy człowieka. 

Na blogu tech@Facebook czytamy, że przedstawiony „smartwatch” to urządzenie do elektromiografii (EMG), co oznacza, że przekształca sygnały nerwu ruchowego na polecenia cyfrowe. „Kiedy masz go na nadgarstku, możesz po prostu przesuwa palcami w przestrzeni, aby sterować wirtualnymi wejściami, niezależnie od tego, czy nosisz gogle VR, czy wchodzisz w interakcję ze światem rzeczywistym. Możesz także wytrenować go, aby wyczuwał intencje twoich palców, tak aby działania miały miejsce nawet wtedy, gdy twoje ręce są całkowicie nieruchome” – opisuje możliwości sprzętu. 

 

 

Urządzenie na razie nie ma konkretnej nazwy, a inżynierowie Facebooka podkreślają, że to jedynie koncepcja i istnieją różne jej wersje. Bosworth mówi, że zanim tego typu technologia stanie się powszechnie dostępna może minąć od pięciu, do dziesięciu lat. 

Nowy projekt jest powiązany z odważnymi planami Facebooka dotyczącymi rozwoju rozszerzonej i wirtualnej rzeczywistości. Informatyczny gigant stwierdził, że dotychczasowe technologie opierają się głównie na doznaniach wzrokowych, podczas gdy ręce użytkownika pozostają niejako „bezużyteczne” lub niezdolne do wykonywania precyzyjnych gestów w wirtualnym świecie. 

„Załóż gogle VR, a twoje ręce całkowicie znikną. Podnosząc parę kontrolerów, możesz grać w gry lub chwytać wirtualne obiekty, ale tracisz możliwość robienia notatek lub precyzyjnego rysowania” – zauważają. 

Zmienić ten stan rzeczy ma nowe urządzenie, które dzięki dokładnemu śledzeniu ruchów mięśni rąk i dłoni ma być w stanie precyzyjnie odwzorować nasze gesty w wirtualnej rzeczywistości. W połączeniu z okularami pozwoli np. wyświetlić komputerową klawiaturę na dowolnej powierzchni i w dowolnym miejscu, a wykonywane w przestrzeni gesty będą naśladować te, jakie wykonujemy na ekranach dotykowych. 

Facebook widzi potencjał na wykorzystanie tej technologii także poza AR i VR. Bosworth zasugerował, że urządzenie mogłoby zostać połączone z… kuchenką mikrofalową. „Interfejsy urządzeń domowych są różne, więc dlaczego nie zaprogramować kuchenki tak, aby po prostu zrozumiała, kiedy chcesz gotować coś przez 10 minut na średniej mocy?” – pyta Wired.com.

W jednym z nagrań prezentujących nowy sprzęt pokazano gracza noszącego urządzenie na nadgarstku i kontrolującego postać w grze na ekranie, ale nie poruszającego przy tym palcami. Bosworth wyjaśnia, że w tym przypadku umysł gracza generuje sygnały identyczne z tymi, które spowodowałyby ruch kciuka, ale kciuk się nie porusza. Urządzenie rejestruje jednak wyrażoną chęć poruszenia kciukiem. 

Zaprzecza jednak, aby urządzenie potrafiło „czytać w myślach” użytkowników, jak ma to robić np. Neuralink, wynalazek Elona Muska. Zresztą w 2019 roku Facebook prezentował swój własny projekt implantu, który został użyty w badaniu interfejsu mózg-komputer, nad którym firma pracowała wspólnie z Uniwersytetem Kalifornijskim w San Francisco.

Naukowcy, nie tylko ci z laboratorium Facebooka, przyznają, że w dziedzinie technologii EMG jest jeszcze wiele niewiadomych. Zwracają uwagę, że każdy z nas nieco różni się pod względem budowy, a więc i nasze nerwy są różne. To sprawia, że tego typu urządzenia wymagałyby odpowiedniej kalibracji. Dużym wyzwaniem jest też zapewnienie precyzji gestów. Przy sprzężeniu dotykowym wbudowanym w urządzenie istnieje ryzyko niedopasowania wizualno-haptycznego, w którym wrażenia wizualne użytkownika nie będzie powiązane z reakcją dotykową. 
„Te punkty tarcia mogą sprawić, że te wszystkie interakcje człowiek-komputer będą wydawać się frustrująco nierealne” – dodaje Wired