
Google DeepMind zaprezentowało niedawno możliwości Apollo, które wykraczają poza sztywno zaprogramowane zadania. Robot potrafi wykonywać skomplikowane czynności przy użyciu przedmiotów, których nigdy wcześniej nie widział. Ta demonstracja to ogromny krok w kierunku stworzenia robotów ogólnego przeznaczenia, które mogą uczyć się, adaptować i działać w dowolnym otoczeniu, bez konieczności ponownego szkolenia dla każdej nowej czynności. Dzięki technologii Gemini Robotics, Apollo nie tylko wykonuje instrukcje, ale zaczyna rozumieć świat.
Gemini Robotics — nowa era kontroli wieloobiektowej
Podczas wspólnej prezentacji z firmą Apptronik, Apollo pokazał niecodzienne umiejętności. Radził sobie z obiektami, których wcześniej nie widział, reagował na komendy głosowe i poruszał się w zmiennym otoczeniu. To nie była sztywna sekwencja ruchów, ale adaptacja do sytuacji. Sekret tej sprawności tkwi w platformie Gemini Robotics, zaprojektowanej jako uniwersalny ‘mózg’ dla różnych maszyn. DeepMind nazywa to podejście “multi-embodiment”, czyli jednym systemem AI można sterować zarówno robotami przemysłowymi, jak i humanoidami. Łączy on możliwości modeli Gemini 3 i Gemini Robotics, dając maszynie zdolność obserwacji, rozumienia języka, planowania złożonych sekwencji i interakcji z nowymi przedmiotami. Wizja jest jasna: zamiast uczyć od zera każdego robota, chce się stworzyć jeden inteligentny system, który da się wdrożyć w dowolnym ‘ciele’. To mogłoby być prawdziwym przyspieszeniem dla całej branży.
Najciekawszym elementem całej technologii jest koncept wewnętrznego monologu. To nie metafora, ale konkretny mechanizm uczenia. Robot obserwuje na wideo człowieka wykonującego zadanie, a jego wewnętrzna AI generuje opis tego, co widzi – na przykład „osoba odkłada książkę na półkę”. Łączenie obrazu z werbalną reprezentacją pomaga maszynie lepiej zrozumieć kontekst i zapamiętać sposób działania. Dzięki temu może później wykonać podobną czynność, nawet jeśli nigdy wcześniej nie trenowała na konkretnym przedmiocie. Ta zdolność, nazywana uczeniem zerowym (zero-shot learning), jest kluczowa dla elastyczności. Co istotne, metoda ma być mniej żarłoczna pod względem mocy obliczeniowej i pamięci niż tradycyjne szkolenie robotów. Pomysł, by maszyna ‘opisywała sobie świat’, brzmi jak science-fiction, ale już działa w laboratorium.
Czytaj też: Naukowcy z Georgia Tech rozwiązali problem widzenia robotów. Ich soczewka reaguje na światło jak żywe oko
Kolejnym kamieniem milowym jest Gemini Robotics On-Device – kompaktowa wersja modelu przystosowana do działania bezpośrednio w robocie, bez ciągłego łączenia z chmurą. To rozwiązanie kilku istotnych problemów naraz. Daje robotowi kontekst w czasie rzeczywistym, poprawia szybkość decyzji i umożliwia pracę w środowiskach o słabym lub żadnym dostępie do sieci. Połączenie lokalnego przetwarzania z systemem wewnętrznego monologu kreuje wizję maszyny, która jest naprawdę autonomiczna i może reagować w nieprzewidywalnych warunkach. Postęp w miniaturyzacji układów AI ostatnich lat sprawia, że takie rozwiązania stają się technicznie wykonalne.
Mimo tych fascynujących pokazów, droga do uniwersalnego robota domowego jest usiana wyzwaniami. Sam DeepMind wskazuje, że kluczowym obszarem do rozwoju jest efektywność danych. Zbieranie ogromnych zbiorów danych z interakcji fizycznych jest wciąż czasochłonne i drogie. Bezpieczeństwo pozostaje absolutnym priorytetem dla maszyn mających pracować obok ludzi, zwierząt i kruchego domowego wyposażenia. Nawet przy zaawansowanej AI, prozaiczne czynności manualne, jak zawiązanie worka na śmieci czy delikatne umycie szklanki, wciąż sprawiają robotom ogromne trudności. Finezja i precyzja ludzkiej dłoni są niezwykle trudne do odtworzenia.
Czytaj też: Robot Atlas wstaje jak cyrkowiec. Przerażający, ale genialny manewr humanoida od Boston Dynamics
Połączenie zaawansowanej konstrukcji mechanicznej Apollo z coraz potężniejszą inteligencją DeepMind to bez wątpienia znaczący krok naprzód. Otwartym pozostaje pytanie, jak technologia poradzi sobie poza sterylnymi warunkami laboratorium, w prawdziwym, chaotycznym świecie. Jeśli okaże się niezawodna, może to być początek nowej ery dla robotyki. Kiedy to nastąpi? Tego nikt nie wie, ale kierunek jest coraz wyraźniejszy.