Kolejka jest na stole przede mną. Obok, na połączonym z elektrodami komputerze, widzę, jak pracuje mój mózg. „To są fale beta, które pojawiają się, kiedy o czymś myślimy i przetwarzamy informacje” – tłumaczy mi Anna Broniec, doktorantka w Laboratorium Przetwarzania Sygnałów Biomedycznych w krakowskiej AGH. Co jakiś czas na wykresie pojawiają się dłuższe wzniesienia. Jak mi powiedziano, to fale alfa, które mózg wytwarza podczas relaksu i rozluźnienia. Pociąg zabawkę włączają fale alfa, wystarczy więc, że się zrelaksuję, a lokomotywa z wagonikiem ruszy. Udaje się dopiero po pewnym czasie. Kolejka najpierw przesuwa się tylko odrobinę, później zaczyna jechać, ale kiedy skupiam na niej swoją uwagę, natychmiast się zatrzymuje. To mój mózg zaczyna analizować sytuację i wchodzi w stan beta. Kiedy ponownie udaje mi się wejść w stan rozluźnienia, wagoniki znów ruszają.

Ten pokazowy eksperyment prezentuje tylko ułamek możliwości interfejsów mózg–komputer, które wykorzystują fale mózgowe. System z elektryczną kolejką opiera się na metodzie najłatwiejszej dla nieprzygotowanej osoby.
Rozróżnia dwa stany – fale alfa i beta – zakres wydawanych poleceń jest więc w tym przypadku mocno ograniczony. Specjaliści od rozkodowywania mózgu potrafią już jednak odczytać znacznie więcej.

Czepki i przewody

Laboratorium Zakładu Inżynierii Medycznej Uniwersytetu Warszawskiego. Scena jakby żywcem wyjęta ze starego filmu SF: dwie osoby siedzą przed monochromatycznymi monitorami, na głowach mają obcisłe czepki, od których odchodzą liczne cienkie przewody wetknięte do małych skrzynek. Te skrzynki to wzmacniacze fal mózgowych, każda kosztuje prawie osiemdziesiąt złotych. Jedna z osób w czepku to asystent naukowy Magda Michalska. Przed nią na ekranie migoczą żółte kwadraty, na których wypisane są kolejne litery alfabetu. Każdy kwadrat migocze z inną częstością. Kiedy człowiek zacznie się wpatrywać w jeden z nich, w falach mózgowych w korze wzrokowej będzie to widoczne: pojawi się tam taka sama częstotliwość. Michalska patrzy na kolejne litery i pisze siłą samych myśli. Idzie jej świetnie: jeden znak na jakieś osiem sekund.

Zakładem Inżynierii Medycznej kieruje prof. Piotr Durka. – Nasz zespół tworzy nowatorskie w skali światowej urządzenia, algorytmy i oprogramowanie, które umożliwią pacjentom korzystanie z interfejsów mózg–komputer. Dla nich jest to jedyny sposób komunikacji z otoczeniem. Szkoda, że polskie ministerstwa odmawiają finansowania tych badań – utrzymanie się w czołówce światowej jest możliwe dzięki zaangażowaniu zespołu oraz, ostatnio, finansowaniu przez Unię Europejską – mówi prof. Durka.

Autem bez trzymanki

Na świecie sterowanie myślą to szybko się rozwijąjąca i budząca wielkie zainteresowanie dziedzina badań. Inżynierowie z berlińskiego Freie Universität donieśli niedawno o testach sterowanego myślami samochodu. Pojazd większą część manewrów przeprowadzał automatycznie, ale słuchał też poleceń, o których kierowca tylko myślał.

Eksperymentalny Volkswagen Passat, wyposażony w radary, czujniki laserowe i trójwymiarowe kamery, sam omijał przeszkody i trzymał się drogi. Kierowca z czytnikiem fal mózgowych na głowie mówił mu, a właściwie myślał, w którym kierunku skręcić, czy zatrzymać się albo przyspieszyć. W podobny sposób – teoretycznie – można sterować niemal dowolnym urządzeniem kontrolowanym przez komputer: inwalidzkim wózkiem, robotem, protezą kończyny albo samym komputerem. – Odczytując aktywność poszczególnych fragmentów kory mózgowej, możemy używać rejestrowanych wzorców do sterowania różnymi urządzeniami. Tylko od nas zależy, jak wykorzystamy odczytywane sygnały. Nietrudno sobie wyobrazić cały szereg zastosowań. Najważniejszą rzeczą jest wydobycie tych wzorców – mówi prof. Piotr Augustyniak, kierujący laboratorium, w którym miałem okazję kontrolowania sprzężoną z mózgiem kolejką.



Podsłuchiwanie myśli to niełatwe zadanie. Sygnały wytwarzane przez korę mózgową są słabe, mózg jest ukryty głęboko pod czaszką, a dodatkowo impulsy zakłóca wiele różnych czynników, w tym mięśnie, które również są
aktywne elektrycznie. – Mierzenie fal mózgowych na powierzchni głowy może być przyrównane do sytuacji, w której dwóch kibiców rozmawia w czasie meczu na stadionie, a my z zewnątrz próbujemy podsłuchać ich rozmowę i zgadnąć, kto strzelił bramkę” – obrazowo wyjaśnia tę sytuację prof. Augustyniak. To dlatego samochód w niemieckim doświadczeniu potrzebował szerokiego pasa startowego i zapewne jeszcze dosyć długo pozostanie tylko laboratoryjnym eksperymentem.

Skupienie wyczerpuje

 

Mierząc powierzchniowe potencjały elektryczne, uczeni potrafią już mimo wszystko osiągnąć całkiem dużo.– W naszym laboratorium udaje się nam uzyskać dokładność pozwalającą na sterowanie komputerowym kursorem, czyli rozróżnienie dwóch niezależnych kierunków. To już jest duża sprawa – opowiada prof. Augustyniak. Dla osoby całkowicie sparaliżowanej sterowanie komputerem za pomocą fal mózgowych może oznaczać jedyny sposób komunikacji z otoczeniem, chociaż proces ten wymaga sporego wysiłku i zabiera dużo czasu. – Na razie pisanie za pomocą myśli trwa o wiele wolniej niż za pomocą klawiatury. Różne badania, w tym nasze, wskazują jednak, że człowiek mógłby się nauczyć obsługi takiego interfejsu i pisać rzeczywiście efektywnie – mówi krakowski badacz.

Komputerowe pisanie to jedno z najczęściej badanych zastosowań „czytania w myślach”. Zaprojektowany specjalnie w tym celu austriacki interfejs o nazwie Intendix składa się z podłączonej do komputera czapki z szeregiem czujników na powierzchni i wyspecjalizowanego oprogramowania. Użytkownik tego systemu patrzy na szeregi wyświetlanych liter, które po kolei mrugają. Kiedy zaświeci się właściwy znak, mózg reaguje inaczej niż przy pozostałych literach i system jest w stanie tę reakcję zidentyfikować. Według twórców urządzenia z firmy Guger Technologies, po dziesięciominutowym treningu przeciętna osoba może pisać z prędkością 5 do 10 znaków na minutę. Uczyć może się nie tylko człowiek, także czytające myśli komputery potrafią już dopasowywać się do
użytkownika.  To właśnie komputerowe algorytmy  są  kluczowe w interpretacji sygnałów odbieranych przez czytające fale mózgowe czujniki. Sztuczna inteligencja może uczynić myślowe interfejsy bardziej precyzyjne i łatwiejsze w użyciu.

W szwajcarskiej Ecole Polytechnique Federale de Lausanne powstał niedawno system, który uczy się odczytywać intencje operatora. Ciągłe skupienie uwagi jest niezwykle męczące. Większość osób już po godzinie pracy z czytnikiem fal mózgowych jest wyczerpana. Szwajcarska technologia nowej generacji pozwala na większe rozluźnienie, pozwala też na to, aby osoba używająca interfejsu zajmowała się w tym samym czasie innymi czynnościami oraz na rozpoznawanie, które sygnały skierowane są do urządzenia. – W przypadku interfejsów czytających fale mózgowe napotykamy dwie ważne kwestie. Po pierwsze człowiek musi się do nich w pewnym stopniu dostosować i nauczyć się posługiwania nimi. To wygląda mniej więcej tak, jakbyśmy chcieli zamknąć oczy i używać tylko dotyku w celu nawigacji. To nie jest łatwe, chociaż oczywiście niewidome osoby tak właśnie robią. Spełnia się też odwieczny postulat ery komputeryzacji, według którego to komputer ma ogromne możliwości dostosowania się do człowieka. Maszyna może nauczyć się wzorców typowych dla danej osoby – mówi prof. Augustyniak. Szwajcarscy badacze uzyskali znakomite efekty, stosując zaawansowane algorytmy oparte na statystyce i rachunku prawdopodobieństwa.

Zrozumiemy potrzebę takich ulepszeń, jeśli wyobrazimy sobie osobę kierującą wózkiem inwalidzkim na chodniku. Jej uwaga jest nieustannie rozpraszana i system musi sobie z tym radzić oraz rozpoznawać, które reakcje mózgu są przeznaczone dla niego. Wózki inwalidzkie rozumiejące proste, wydawane myślami komendy są już konstruowane od kilku lat. Taką konstrukcję opracowała m.in. Toyota. Na razie to tylko pojedyncze egzemplarze, ale w przyszłości mogą umożliwić sparaliżowanym osobom samodzielne poruszanie się.

A może wszczepić chip?

W podobny sposób jak inwalidzkim wózkiem można sterować sztuczną kończyną. Działający prototyp sterowanej myślami ręki powstał już w kanadyjskim Ryerson University. Wyposażona w protezę osoba poprzez sieć czujników zakładanych na głowę przekazuje polecenia do pneumatycznych mięśni sztucznej ręki. Jak twierdzą jej twórcy, podstawowej obsługi protezy można nauczyć się w ciągu 10 minut. Zastosowaną technologię można wykorzystać także w innych dziedzinach, np. do sterowania ramieniem robota rozbrajającego ładunki wybuchowe. Na razie ruchy ręki są dosyć ograniczone, m.in. wszystkie palce reagują jednocześnie. Prowadzone są już prace nad kolejną, ulepszoną wersją, a założona właśnie firma Bionik Laboratories Inc. ma odpowiadać za komercjalizację wynalazku.


Istnieje sposób na to, aby znacząco zwiększyć precyzję odczytu fal mózgowych. Jest nim wszczepienie pod czaszkę mikrochipu z elektrodami reagującymi na aktywność mózgu. Zanotowano już pierwsze sukcesy na tym polu. Niedawno opublikowano raport z eksperymentu przeprowadzonego przez uczonych z Brown University, Providence VA Medical Center i Massachusetts General Hospital, w którym sparaliżowana kobieta przez tysiąc dni korzystała z takiego implantu do komunikacji z otoczeniem. Chip pozwalał jej sterować komputerem. Z upływem czasu część umieszczonych w nim elektrod przestała działać, ale badacze twierdzą, że opracowane już nowe technologie rozwiązują ten problem.

Mikrochipy mogą stanowić przyszłość myślowych interfejsów, lecz aby tak się stało, oprócz spełnienia wymogów medycznych będą musiały zyskać aprobatę społeczeństwa. Dzisiaj niewielu ludzi zgodziłoby się na umieszczenie implantu w głowie, jeżeli nie byłoby to absolutnie konieczne. – Precyzję detetcji i analizy sygnałów z mózgu można znacząco poprawić, stosując wszczepiane mikrochipy. Z tym wiążą się jednak pewne problemy. Dotyczą one kwestii technicznych, ale też akceptacji społecznej. Być może kiedyś ludzie staną się bardziej elastyczni i otwarci na tego rodzaju implanty. Na razie trudno jest kogokolwiek przekonać, aby wszczepił sobie pod czaszkę implant, nawet jeśli ma to poprawić jakość jego życia – mówi prof. Augustyniak.

Już dzisiaj możemy sprawdzić moc swoich myśli w domowych warunkach dzięki wynalazkom takich firm jak Emotiv czy NeuroSky. Oparte na tych wynalazkach urządzenia można kupić już za kwotę 100 dol. Pozwalają kontrolować telefony komórkowe, tablety i komputery. Dzięki nim można np. obserwować poziom własnej koncentracji, stopień rozluźnienia, zobaczyć, jak mózg reaguje na muzykę, sterować komputerową aplikacją, a nawet fizycznymi przedmiotami. To właśnie z interfejsu Emotiv, który kosztuje 300 dol., korzystał kierowca sterowanego myślami Volkswagena. Dzięki technice powiedzenie, że nasze myśli tworzą naszą rzeczywistość, nabiera nowego znaczenia.


Bez pośrednictwa mięśniProces sterowania urządzeniami za pomocą fal mózgowych wyjaśnia prof. Piotr Durka z Uniwersytetu Warszawskiego:

Interfejsy mózg–komputer to systemy pozwalające na sterowanie urządzeniem wyłącznie za pomocą aktywności mózgu, bez pośrednictwa mięśni – wszak gdyby pominąć to zastrzeżenie, to interfejsem mózg–komputer okazałyby się też zwykła klawiatura i myszka. Z powierzchni głowy rejestrujemy elektroencefalogram (EEG), czyli ślady potencjałów elektrycznych wytwarzanych przez miliardy pracujących w mózgu neuronów. Nie potrafimy z tego zapisu odtworzyć działania poszczególnych neuronów ani też „osobnych myśli” – ale potrafimy za jego pomocą sterować urządzeniami. Jak to jest możliwe?

Znamy kilka prostych własności EEG, które można wykorzystać do stworzenia interfejsu mózg–komputer. Na przykład proces selektywnej uwagi znajduje odzwierciedlenie w tym sygnale – wśród wielu podobnych bodźców, docierających do mózgu, najsilniejszą odpowiedź dają te, na których koncentrujemy uwagę. I tak, jeśli w polu widzenia będą migać na przemian literki A i B, a my będziemy koncentrować uwagę tylko na A, to potencjał mierzony średnio po każdym mignięciu literki A będzie silniejszy niż ten po B. Literek może być więcej – i możemy już pisać; zamiast literek mogą migać strzałki – najważniejsze, że przekazaliśmy do świata informację z mózgu bez pośrednictwa mięśni, co w niektórych chorobach może być jedyną drogą komunikacji.

Zamiast pojedynczych mignięć możemy też podświetlać literki światłem pulsującym z różnymi częstościami – wtedy nad korą wzrokową pojawią się potencjały o częstości odpowiadającej tej literce, na której koncentrowaliśmy uwagę. Na koniec można się już dzisiaj pokusić o odczytanie z EEG wyobrażenia ruchu – w tym paradygmacie żeby skręcić w lewo, wyobrażamy sobie ruch lewą ręką. Wymaga to długiego treningu, większej liczby elektrod na głowie i bardziej skomplikowanych algorytmów.