Robot z „ludzkim wyczuciem”. Przełom w naśladowaniu dotyku przy minimalnej ilości danych

Nauka chwytania przedmiotów wydaje się nam czymś banalnym. Od dziecka instynktownie wiemy, jak mocno ścisnąć szklankę, by nie wypadła z dłoni, a jednocześnie jak delikatnie potraktować dojrzałego pomidora, by go nie zmiażdżyć. Dla robotów to jednak prawdziwy koszmar logistyczny.
...

Większość maszyn działa świetnie w sterylnych warunkach fabrycznych, ale gubi się, gdy tylko zmieni się waga, tekstura czy sztywność obiektu. Do tej pory rozwiązaniem było „karmienie” sztucznej inteligencji ogromnymi zbiorami danych, co jest czasochłonne i piekielnie drogie. Jednak najnowsze doniesienia z Japonii sugerują, że nadszedł czas na zmianę zasad gry. Naukowcy opracowali bowiem system, który pozwala robotom replikować ludzki dotyk i ruch przy użyciu zaskakująco małej ilości danych treningowych.

Roboty uczą się chwytać jak ludzie. Japoński przełom w robotyce

Tradycyjne systemy odtwarzania ruchu zazwyczaj polegają na nagrywaniu ludzkich gestów i ich wiernym kopiowaniu przez maszynę. Problem pojawia się, gdy fizyczne właściwości przedmiotu – np. jego twardość – różnią się od tego, co robot widział podczas treningu. Zespół badawczy z Uniwersytetu Keio, pod przewodnictwem Akiry Takakury, postanowił odejść od prostych modeli liniowych na rzecz regresji procesu Gaussa.

Jest to technika, która potrafi mapować skomplikowane, nieliniowe relacje, bazując na ograniczonych informacjach. Zamiast pokazywać robotowi miliony przykładów, naukowcy nagrali ludzkie ruchy chwytania obiektów o zróżnicowanej sztywności. Model nauczył się, jak właściwości obiektu korelują z siłą i pozycją przyłożoną przez człowieka. Dzięki temu system potrafi „odgadnąć” intencję ruchu i wygenerować odpowiednią reakcję dla przedmiotów, których nigdy wcześniej nie widział. Jak wyjaśnia dr Takahiro Nozaki, kluczem jest umożliwienie maszynom interakcji z codziennymi przedmiotami w sposób, który reaguje na siły, jakie napotykają w czasie rzeczywistym.

Źródło: Keio Universisty

W praktyce oznacza to, że robot przestaje być ślepym wykonawcą poleceń, a zaczyna w pewnym stopniu „czuć” to, co trzyma w chwytaku. Jest to niezbędne, jeśli chcemy, aby roboty na dobre zadomowiły się w naszych kuchniach, szpitalach czy domach, gdzie środowisko jest nieprzewidywalne i dalekie od uporządkowanej hali produkcyjnej.

Imponujące wyniki — mniej błędów, więcej precyzji

Japoński zespół nie poprzestał na teorii i przetestował swój system na tle konwencjonalnych metod odtwarzania ruchu oraz typowych modeli uczenia przez naśladowanie. Wyniki są, krótko mówiąc, deklasujące. W zadaniach, gdzie sztywność obiektu mieściła się w zakresie treningowym, system zredukował błędy pozycji o co najmniej 40%, a błędy siły o 34%.

Czytaj też: Robot, który uczy się z YouTube’a. NEO zyskuje „cyfrową wyobraźnię”

Jeszcze ciekawszy był test ekstrapolacji, czyli sytuacja, w której robot musiał poradzić sobie z obiektem o właściwościach wykraczających poza znany mu zakres. W takim przypadku błąd pozycji spadł o niewiarygodne 74%. To pokazuje, że model oparty na procesach Gaussa radzi sobie ze zmiennością otoczenia znacznie lepiej niż dotychczasowe rozwiązania.

Czytaj też: Hongkong zaprzęga AI do ratowania przyrody. Robotyczne psy z laserami ruszają w teren

Możliwość uzyskania tak wysokiej precyzji przy minimalnych nakładach danych drastycznie obniża koszty wdrażania adaptacyjnych robotów. Akira Takakura zauważa, że technologia ta obniża barierę wejścia dla firm, które dotychczas nie mogły pozwolić sobie na uczenie maszynowe ze względu na konieczność posiadania gigantycznych baz danych. Skorzystać mogą na tym szczególnie branże zajmujące się robotami asystującymi, które za każdym razem muszą dostosowywać swój ruch do innego podopiecznego czy zadania.