
Owady świetnie pokazują, że wzrok nie musi przypominać aparatu fotograficznego. Ich oczy złożone są stworzone do tego, by ogarniać szeroko, rejestrować ruch i podejmować decyzje w locie, a nie do podziwiania detali. Nowa konstrukcja bionicznego oka idzie dokładnie tą drogą: daje robotom szeroki ogląd i błyskawiczną reakcję, a do tego dokłada coś, czego klasyczna kamera w ogóle nie potrafi – orientację chemiczną w środowisku.

Oko jak u owada – 1027 oczek upakowanych w milimetrach
Tu nie ma jednej soczewki i jednej matrycy. Zamiast tego powstała mozaika 1027 mikrosoczewek, odpowiedników ommatidiów, upchnięta na obszarze około 1,5 × 1,5 mm. Taka gęsta siatka daje naturalnie szeroki ogląd sceny: około 180° w poziomie i około 80° w pionie, czyli pole widzenia bliższe radarowi niż kamerze na gimbalu.
Kluczowe jest to, co ta architektura lubi robić. Nie próbuje składać perfekcyjnego obrazu świata. Po prostu wydobywa parametry ruchu i położenia w szerokim polu widzenia. W praktyce to oznacza, że robot może reagować na obiekt wchodzący z boku bez obracania sensora i bez skanowania otoczenia ruchem. To zmienia logikę nawigacji w ciasnych przestrzeniach: mniej rozglądania, więcej natychmiastowej odpowiedzi.
Najciekawsza jest nie tylko miniaturyzacja, ale sposób montażu optyki. Mikrosoczewki wytworzono bezpośrednio na elastycznych fotodetektorach dzięki femtosekundowej polimeryzacji dwufotonowej, technice pozwalającej drukować struktury optyczne w mikroskali z bardzo dużą precyzją. To ważne, bo w takich układach największym wrogiem jest mikroskopijny błąd osiowania: gdy soczewka nie trafia idealnie w swój piksel, wszystko zaczyna działać nierówno.
Całość zintegrowano na cylindrycznej powierzchni o promieniu około 0,6 mm, co nadaje układowi krzywiznę przypominającą naturalne oko złożone. W konstrukcji pojawia się też PDMS, elastyczny, przezroczysty polimer, który pełni podwójną rolę: zabezpiecza detektory i jednocześnie jest medium optycznym dla mikrosoczewek. Efekt jest praktyczny: to ma być oko, które da się sensownie montować na małych platformach i które wytrzymuje zginanie bez utraty stabilności działania.
Szybkość zamiast megapikseli: 0,1 ms reakcji i ruch próbkowany w kilohertzach
W takich rozwiązaniach liczy się czas. Zastosowany układ fotodetektorów osiąga około 0,1 ms odpowiedzi fotoelektrycznej, co pozwala na bardzo szybkie próbkowanie zmian w scenie. Stąd bierze się parametr, który w robotyce jest złotem: zdolność do detekcji ruchu w skali milisekund, a efektywny sampling ruchu przekraczający 1000 Hz.
To podejście ma głęboki sens w nawigacji. Zamiast liczyć ciężkie algorytmy rekonstrukcji obrazu klatka po klatce, system może wykrywać migotanie i zmiany intensywności w obszarach widzenia. Gdy cel przesuwa się w polu widzenia, na krawędziach stref aktywacji pojawiają się charakterystyczne zmiany sygnału i to da się przetworzyć szybko, tanio energetycznie, bez konieczności posiadania mocnego komputera pokładowego. Innymi słowy: obraz jest skromniejszy, ale informacja decyzyjna przychodzi szybciej.
W laboratorium niemal każda optyka działa. W realnym świecie pojawia się wilgoć, para, różnice temperatur, kurz i nagle najlepszy sensor potrafi stać się bezużyteczny, bo soczewka łapie zaparowanie. W tej konstrukcji pojawia się sprytny, biologiczny trik: mikrowłoski między soczewkami (odpowiedniki setae), które mają zwiększać odporność na zaparowanie i wspierać utrzymanie czystego toru optycznego w warunkach wysokiej wilgotności.
To nie jest efektowny parametr w tabelce, ale to właśnie takie rzeczy rozstrzygają, czy robot będzie przydatny w inspekcji kanałów, tuneli, instalacji przemysłowych albo po prostu w warunkach, w których człowiek nie chciałby wchodzić jako pierwszy. Jeśli urządzenie ma działać w terenie, odporność na zwykłe niewygody bywa ważniejsza niż kolejny skok rozdzielczości.
Drugi zmysł w tym samym module: widzi przeszkody i jednocześnie czuje powietrze
Najbardziej nietypowy element to dołożenie zmysłu chemicznego. W module znalazła się kolorometryczna matryca czujników zaprojektowana tak, by reagowała barwnie na różne niebezpieczne substancje. Zastosowano tu podejście wzorcowe: nie jeden czujnik na jeden gaz, tylko zestaw materiałów, które razem tworzą rozpoznawalny podpis odpowiedzi, a potem algorytm klasyfikuje wzór. W opisie pojawiają się metaliczne kompleksy i wskaźniki pH jako elementy reagujące na środowisko.
Ważne jest też to, jak realistycznie potraktowano czas reakcji. Chemia nie jest tak szybka jak fotodetektor – odpowiedź barwna wymaga czasu, a więc to nie jest alarm w ułamku sekundy. Ale w wielu scenariuszach i tak liczy się coś innego: mapowanie stref ryzyka, wskazanie, że w danym obszarze pojawiają się niebezpieczne opary, czy zbudowanie prostej warstwy decyzyjnej typu nie jedź tam / wróć / obejdź. To dokładnie ta różnica między czujnikiem ostrzegającym o środowisku a czujnikiem sterującym w czasie rzeczywistym.
Układ sprawdzano w scenariuszach typowych dla bliskiej nawigacji. W badaniach przewijają się odległości rzędu 10–25 cm jako zakres, w którym system ocenia kąty (azymut i elewację), rozróżnia kilka obiektów i wyciąga parametry potrzebne do unikania kolizji. To pasuje do zastosowań robotów inspekcyjnych i małych platform, gdzie kluczowe są reakcje na to, co dzieje się tuż przed nosem.
Są też ograniczenia. Obraz ma rozciągnięcia wynikające z geometrii (rozciąganie wzdłuż osi i konieczność korekty proporcji), a detale typu cienkie krawędzie, małe otwory czy drobne elementy mogą w ogóle nie wywołać wyraźnej odpowiedzi. To nie jest wada w sensie błędu inżynieryjnego. To koszt wyboru filozofii: szeroko, szybko, energetycznie oszczędnie, kosztem ostrości statycznego detalu.