
To nie jest tylko kolejna aktualizacja algorytmu – to potężne uderzenie w sektor robotyki fizycznej, które ma na celu nadanie maszynom zdolności rozumienia przestrzeni, obiektów i ruchu na poziomie zbliżonym do ludzkiego. Premiera ta jest jasnym sygnałem dla amerykańskich liderów, takich jak NVIDIA czy Google, że wyścig o panowanie nad „mózgami” przyszłych robotów wszedł w fazę brutalnej wręcz rywalizacji o wydajność i precyzję.
16 rekordów i architektura Mixture-of-Experts. Co potrafi RynnBrain?
Największym echem w branży odbiła się informacja, że RynnBrain pobił aż 16 rekordów w otwartych benchmarkach sztucznej inteligencji ucieleśnionej. System Alibaby wyprzedził w testach percepcji środowiskowej i planowania zadań tak uznane modele, jak Gemini Robotics ER 1.5 od Google’a oraz Cosmos Reason 2 od NVIDII. Sukces ten nie wynika jednak z samej mocy obliczeniowej, ale z niezwykle sprytnej architektury.
Czytaj też: W Chinach rusza pierwsza na świecie liga walk humanoidów. Roboty T800 wchodzą na ring
RynnBrain to pierwszy w branży model typu Mixture-of-Experts (MoE) dedykowany robotyce, posiadający 30 miliardów parametrów. Klucz do jego przewagi leży w tym, że podczas pracy aktywuje on jedynie 3 miliardy parametrów. Dzięki temu system jest niesamowicie lekki i szybki, a mimo to potrafi pokonać w testach gigantyczne modele o rozmiarze 72 miliardów parametrów. W praktyce oznacza to, że robot wyposażony w RynnBrain podejmuje decyzje niemal natychmiastowo, co przekłada się na płynniejszy ruch i mniejsze zużycie energii – parametry krytyczne dla maszyn działających na bateriach w magazynach czy domach.
Pamięć czasoprzestrzenna — robot, który nie zapomina
Alibaba skupiła się na rozwiązaniu największej bolączki dzisiejszych robotów: słabej pamięci przestrzennej. Tradycyjne systemy często „zapominają”, gdzie znajduje się dany przedmiot, gdy tylko zniknie on z pola widzenia kamery. RynnBrain wprowadza koncepcję pamięci czasoprzestrzennej, która pozwala maszynie przywoływać lokalizację obiektów widzianych wcześniej i przewidywać ich przyszłe położenie.
Czytaj też: Autonomiczne drony przejmują inwentaryzację w przemysłowych zamrażarkach
System wspiera również tzw. globalną retrospekcję. Robot przed wykonaniem kolejnego kroku potrafi przeanalizować swoje wcześniejsze działania, co drastycznie redukuje liczbę błędów w złożonych, wieloetapowych zadaniach. Na udostępnionym materiale wideo widać, jak robot bezbłędnie identyfikuje owoce i układa je w koszyku, łącząc logikę tekstową (zrozumienie polecenia) ze wskazówkami przestrzennymi. Model został wyszkolony na systemie wizualno-językowym Qwen3-VL, a dzięki autorskiej architekturze RynnScale proces trenowania skrócono o połowę bez zwiększania zasobów obliczeniowych.
Demokratyzacja robotyki i otwarte standardy
Chiński gigant nie zamierza jednak trzymać tej technologii wyłącznie dla siebie. Wraz z premierą RynnBrain, DAMO Academy udostępniło siedem modeli w formacie open-source, w tym wersje bazowe oraz warianty dopracowane pod kątem konkretnych zastosowań komercyjnych. To strategiczny ruch, który ma obniżyć barierę wejścia dla mniejszych firm z branży logistyki, produkcji i usług, przyspieszając tym samym adopcję chińskich rozwiązań na całym świecie.
Czytaj też: AGIBOT NIGHT w Szanghaju. Humanoidy przejmują scenę i zabawiają gości
Dodatkowo zaprezentowano nowy framework oceny – RynnBrain-Bench. Ma on wypełnić lukę w testowaniu robotów, skupiając się na precyzyjnych zadaniach czasoprzestrzennych, a nie tylko na statycznym rozpoznawaniu obrazów. Alibaba chce w ten sposób narzucić standardy, według których oceniana będzie „inteligencja” maszyn w realnym świecie. Skuteczność tego modelu udowadnia więc, że przyszłość robotyki nie należy do największych modeli, ale do tych najbardziej efektywnych, które potrafią kojarzyć fakty w czasie i przestrzeni.