Większość maszyn działa świetnie w sterylnych warunkach fabrycznych, ale gubi się, gdy tylko zmieni się waga, tekstura czy sztywność obiektu. Do tej pory rozwiązaniem było „karmienie” sztucznej inteligencji ogromnymi zbiorami danych, co jest czasochłonne i piekielnie drogie. Jednak najnowsze doniesienia z Japonii sugerują, że nadszedł czas na zmianę zasad gry. Naukowcy opracowali bowiem system, który pozwala robotom replikować ludzki dotyk i ruch przy użyciu zaskakująco małej ilości danych treningowych.
Roboty uczą się chwytać jak ludzie. Japoński przełom w robotyce
Tradycyjne systemy odtwarzania ruchu zazwyczaj polegają na nagrywaniu ludzkich gestów i ich wiernym kopiowaniu przez maszynę. Problem pojawia się, gdy fizyczne właściwości przedmiotu – np. jego twardość – różnią się od tego, co robot widział podczas treningu. Zespół badawczy z Uniwersytetu Keio, pod przewodnictwem Akiry Takakury, postanowił odejść od prostych modeli liniowych na rzecz regresji procesu Gaussa.
Jest to technika, która potrafi mapować skomplikowane, nieliniowe relacje, bazując na ograniczonych informacjach. Zamiast pokazywać robotowi miliony przykładów, naukowcy nagrali ludzkie ruchy chwytania obiektów o zróżnicowanej sztywności. Model nauczył się, jak właściwości obiektu korelują z siłą i pozycją przyłożoną przez człowieka. Dzięki temu system potrafi „odgadnąć” intencję ruchu i wygenerować odpowiednią reakcję dla przedmiotów, których nigdy wcześniej nie widział. Jak wyjaśnia dr Takahiro Nozaki, kluczem jest umożliwienie maszynom interakcji z codziennymi przedmiotami w sposób, który reaguje na siły, jakie napotykają w czasie rzeczywistym.

W praktyce oznacza to, że robot przestaje być ślepym wykonawcą poleceń, a zaczyna w pewnym stopniu „czuć” to, co trzyma w chwytaku. Jest to niezbędne, jeśli chcemy, aby roboty na dobre zadomowiły się w naszych kuchniach, szpitalach czy domach, gdzie środowisko jest nieprzewidywalne i dalekie od uporządkowanej hali produkcyjnej.
Imponujące wyniki — mniej błędów, więcej precyzji
Japoński zespół nie poprzestał na teorii i przetestował swój system na tle konwencjonalnych metod odtwarzania ruchu oraz typowych modeli uczenia przez naśladowanie. Wyniki są, krótko mówiąc, deklasujące. W zadaniach, gdzie sztywność obiektu mieściła się w zakresie treningowym, system zredukował błędy pozycji o co najmniej 40%, a błędy siły o 34%.
Czytaj też: Robot, który uczy się z YouTube’a. NEO zyskuje „cyfrową wyobraźnię”
Jeszcze ciekawszy był test ekstrapolacji, czyli sytuacja, w której robot musiał poradzić sobie z obiektem o właściwościach wykraczających poza znany mu zakres. W takim przypadku błąd pozycji spadł o niewiarygodne 74%. To pokazuje, że model oparty na procesach Gaussa radzi sobie ze zmiennością otoczenia znacznie lepiej niż dotychczasowe rozwiązania.
Czytaj też: Hongkong zaprzęga AI do ratowania przyrody. Robotyczne psy z laserami ruszają w teren
Możliwość uzyskania tak wysokiej precyzji przy minimalnych nakładach danych drastycznie obniża koszty wdrażania adaptacyjnych robotów. Akira Takakura zauważa, że technologia ta obniża barierę wejścia dla firm, które dotychczas nie mogły pozwolić sobie na uczenie maszynowe ze względu na konieczność posiadania gigantycznych baz danych. Skorzystać mogą na tym szczególnie branże zajmujące się robotami asystującymi, które za każdym razem muszą dostosowywać swój ruch do innego podopiecznego czy zadania.