Sztuczna inteligencja czyta mózg. Odtwarza to, co zobaczyliśmy

To, co do niedawna wydawało się jeszcze w najlepszym wypadku elementem znanym z gatunku science fiction okazuje się rzeczywistością. Naukowcy opracowali narzędzie, które odczytuje fale mózgowe i rekonstruuje na ich podstawie obrazy. 
Sztuczna inteligencja czyta mózg. Odtwarza to, co zobaczyliśmy

To zasługa duetu w postaci sztucznej inteligencji oraz tzw. funkcjonalnego obrazowania metodą rezonansu magnetycznego (fMRI). Jak wyjaśniają przedstawiciele National University of Singapore i The Chinese University of Hong Kong, dotychczas stosowane, mało inwazyjne metody pozwalały na odtwarzanie dość ograniczonych informacji, a ewentualne zakłócenia często niweczyły efekt końcowy. 

Czytaj też: Microsoft szykuje metamorfozę Windowsa 11. Takiej zmiany w systemie jeszcze nie było

Nowe podejście również jest mało inwazyjne, ale jednocześnie zdecydowanie bardziej efektywne. Szczegóły na temat prowadzonego projektu są dostępne w formie preprintu, co oznacza, iż artykuł nie doczekał się jeszcze naukowych recenzji. Sami zainteresowani dodają natomiast, że uczestnicy eksperymentu mieli za zadanie oglądać różnego rodzaju nagrania. Te przedstawiały ludzi, inne zwierzęta czy krajobrazy. Jednocześnie mózgi ochotników były poddawane skanowaniu z wykorzystaniem funkcjonalnego obrazowania metodą rezonansu magnetycznego. 

Podstawowym problemem w tym kontekście było to, że każdy taki skan odzwierciedla uśrednioną aktywność mózgu, a nie jego ciągłą pracę. Przeciętny film jest wyświetlany w tempie około 30 klatek na sekundę, dlatego jeśli fMRI trwa 2 sekundy, to w tym czasie zostanie wyświetlonych około 60 klatek. W efekcie dekodowanie zebranych sygnałów (a w konsekwencji odtwarzanie materiałów wideo) przy większej liczbie klatek na sekundę niż wynosi rozdzielczość czasowa fMRI stanowi ogromne wyzwanie.

Sztuczna inteligencja była w stanie rekonstruować dane dostarczane dzięki skanowaniu mózgu i przekształcać je w treści wizualne

Narzędzie oparte na sztucznej inteligencji, znane jako MinD-Video, posłużyło do dekodowania danych fMRI, a model Stable Diffusion zajął się generowaniem treści wizualnych. Kiedy pojawił się efekt końcowy, członkowie zespołu ocenili, na ile zgodne z pierwotnie wyświetlanymi materiałami były odtworzone obiekty, jak prezentowała się dynamika poszczególnych scen oraz jak narzędzie poradziło sobie z rekonstrukcją na poziomie pikseli. 

Zgodność okazała się naprawdę imponująca, ponieważ wyniosła około 85 procent. Dla porównania, wcześniej stosowane narzędzia osiągały rezultaty rzędu 40 procent. Sztuczna inteligencja odtwarzała zarówno obiekty, zwierzęta, czy ludzi, ale i całkiem nieźle radziła sobie z różnego rodzaju aktywnościami, na przykład bieganiem, tańcem bądź śpiewem. Taka metoda może znaleźć zastosowanie w życiu codziennym. W grę wchodzi między innymi tworzenie jeszcze wydajniejszych interfejsów mózg-komputer, które mogłyby pomóc sparaliżowanym osobom. 

Czytaj też: Przesłali informacje kwantowe na 50 kilometrów. Teraz pójdą o krok dalej

Nowe technologie bardzo często ułatwiają życie pacjentom, o czym najlepiej świadczą historie ludzi, którzy po latach odzyskali możliwość poruszania się, porozumienia z otoczeniem czy widzenia. Oczywiście w tym przypadku nieco martwiąca może wydawać się możliwość inwigilowania społeczeństwa poprzez czytanie w myślach.