Naprawdę nie chce ci się dziś iść do pracy. Czujesz, że łapie cię przeziębienie i dobrze byłoby poleżeć w łóżku. Po drodze na pewno będą korki, potem problemy z zaparkowaniem pod firmą, a w biurze jeszcze ta klimatyzacja, której nie da się sensownie ustawić... Oczywiście możesz popracować w domu przy komputerze i wysłać wszystkie dokumenty e-mailem, ale co z zaplanowanym na dziś zebraniem? Wyślesz tam kogoś innego. Kładziesz się na kanapie z laptopem, podłączasz joystick i przejmujesz kontrolę nad swym sobowtórem, który cierpliwie czekał w firmowym magazynku. „Dzień dobry, szefie!” – mówisz do mikrofonu, widząc na ekranie innego robota jadącego korytarzem. No tak, nie tylko ty masz daleko do pracy. Ciekawe, ile maszyn będzie na tym spotkaniu? Właśnie tak już wkrótce może wyglądać nasza codzienna rzeczywistość. Koszmar dojazdów do pracy to nic w porównaniu z wylotem na konferencję na drugiej półkuli – wystarczy jedna erupcja wulkanu i musisz zostać w domu. Ale w laboratoriach naukowców powstały urządzenia, które pozwalają człowiekowi być w dwóch miejscach jednocześnie. Witajcie w świecie cyberklonów – maszyn, które wkrótce mogą nas wyręczyć w najbardziej żmudnych i niewygodnych obowiązkach (trochę tak, jak w goszczącym niedawno na ekranach kin filmie „Surogaci”).

Będę tam jak rycerz Jedi

Nikogo już nie dziwi, że to maszyny szyją ubrania,kopią doły czy dźwigają ciężary. Jednak rewolucja przemysłowa niewiele pomogła pracownikom umysłowym. Nawet technologie komputerowe i internet nie dały nam takiej swobody, byśmy mogli pracować naprawdę zdalnie. Każdy szef woli mieć podwładnych pod ręką i sam też musi być w biurze, żeby wszystkiego doglądać. Telekonferencje, e-maile, wideoczaty – wszystko to pomaga, ale tylko trochę. Sytuacji nie zmienią nawet najnowsze wynalazki rodem z filmów science fiction. Dzięki firmom takim jak brytyjska Musion Systems możemy pojawić się w odległym miejscu niczym rycerze Jedi z „Gwiezdnych wojen” – w trzech wymiarach. Wizerunek jest nieco blady i migotliwy, ale do złudzenia przypomina filmowe hologramy, choć korzysta z innego zjawiska. System bazuje na pomyśle Johna Peppera i Henry’ego Dircksa – mistrzów iluzji z epoki wiktoriańskiej, którzy, wykorzystując grę odbić, „przywoływali” do pustych pomieszczeń duchy i zjawy. Współcześnie sztuczkę tę wykorzystuje się w tunelach strachu w wesołych miasteczkach. Do wideotransmisji 3D potrzebna jest kamera wysokiej rozdzielczości, bardzo szybkie łącze internetowe i rzutnik, który wyświetla obraz na płachcie wytrzymałej, idealnie gładkiej folii poliestrowej. Wady? System ogranicza miejsce akcji do jednej lokalizacji, działa tylko w jedną stronę – zwirtualizowana osoba nie może patrzeć na świat oczami swego sobowtóra – i jest koszmarnie drogi (ceny zaczynają się od 150 tys. dol.). Można sobie wyobrazić, że z czegoś takiego korzysta gwiazda rocka, polityk czy naukowiec, wygłaszający zdalnie wykład, ale raczej nie przeciętny zjadacz biurowego chleba.

Cybernetyczny belfer

Dlatego do akcji wkraczają roboty. Już dziś są w stanie „zastąpić” przy pracy cenionych profesjonalistów, takich jak lekarze. Zatrudnienie neurochirurga w amerykańskim szpitalu to koszt rzędu 500 tys. dol. rocznie. Nie każdą placówkę na to stać. Taniej wychodzi wynajęcie robota RP-7 (ok. 7 tys. dol. na miesiąc), który – zdalnie sterowany przez specjalistę znajdującego się w odległości setek kilometrów – może skonsultować pacjenta czy zrobić obchód. Maszyna jest tak naprawdę ruchomym zestawem do telekonferencji, ale to w zupełności wystarcza. Pacjenci nie mają nic przeciwko, zwłaszcza że personel nierzadko ubiera robota w lekarski fartuch, żeby wyglądał bardziej swojsko. W podobny sposób Koreańczycy chcą rozwiązać problem niedoborów kadrowych w szkołach i przedszkolach. „Do 2015 r. roboty będą w stanie pomagać nauczycielom w trakcie lekcji angielskiego. Po 2018 r. powinny już być zdolne do samodzielnej pracy z uczniami” – twierdzi Kim Shin-hwan, ekonomista z Hyundai Research Institute.

Nim jednak to nastąpi, nauka z pomocą robotów będzie przypominała nieco bardziej rozwiniętą formę e-learningu – maszyny będą zdalnie obsługiwane przez native speakerów, mieszkających poza granicami Korei Południowej. Tamtejszy rząd chce wydać na ten projekt w sumie 45 mln dol. Ale specjaliści wątpią w sens tego przedsięwzięcia. „Nie ma się co łudzić, że maszyna byłaby w stanie zastąpić kontakt z człowiekiem” – uważa prof. Noel Sharkey, ekspert w dziedzinie robotyki i sztucznej inteligencji z University of Sheffield. Podobnego zdania jest prof. Hiroshi Kobayashi z Tokijskiego Uniwersytetu Nauk. Zaprojektowana przez niego cyberkobieta imieniem Saya była testowana jako nauczycielka w jednej ze szkół, ale budziła raczej lęk wśród dzieci (a i tak sterował nią zdalnie operator, obserwujący klasę za pośrednictwem kamery). „Robot nie ma inteligencji. Nie ma zdolności uczenia się. Nie ma tożsamości. To tylko narzędzie” – podkreśla prof. Kobayashi.

Sobowtór wychodzi z szafy

 

Jeśli jednak takie narzędzie znajdzie się pod kontrolą żywego człowieka, będzie mówić jego głosem i wyświetlać na ekranie jego twarz, może całkiem dobrze go zastąpić. Przekonali się o tym konstruktorzy z amerykańskiej firmy Willow Garage – Dallas Goecker i Curt Meyers. Ponieważ mieszkają w odległości 3,2 tys. km od siebie, potrzebowali czegoś lepszego i bardziej „rzeczywistego" niż internetowy komunikator Skype. Wykorzystując swoje wcześniejsze doświadczenie, inżynierowie stworzyli Texai – prostą, wręcz ascetyczną maszynę, którą można by nazwać „Skype na kółkach”. „Gdy osoba jest »teleobecna « za pośrednictwem robota, może swobodnie poruszać się po otoczeniu, spotykając się i rozmawiając z napotkanymi po drodze osobami. To zupełnie co innego niż w przypadku tradycyjnych wideokonferencji, kiedy rozmówcy są »przyklejeni do ścian«” – wyjaśnia Steve Cousins, prezes Willow Garage.

Firma nie zamierza na razie wprowadzać Texai na rynek, lecz jedynie prowadzić nad nim dalsze prace badawcze. Inaczej jest w przypadku Anybots, która już na jesieni zacznie oferować robota QB. Jego konstrukcja jest maksymalnie uproszczona – to platforma wyposażona w kółka (może się poruszać z prędkością do 5,5 km/godz., dzięki czemu nadąży za ludźmi w czasie przechadzki) oraz zamontowana na długiej tyczce „głowa” z ekranem, głośniczkami i mikrofonem oraz kamerą wideo. QB waży niespełna 16 kg, więc można go łatwo przenieść czy włożyć do samochodu i zabrać na spotkanie. Jest też dobrze wychowany – mijając ludzi na korytarzu, nie będzie na nich trąbić, by mu zeszli z drogi, ale sam usunie się pod ścianę. „Tego rodzaju maszyny są świetne, jeśli chodzi o budowanie relacji z ludźmi. Rozmawiając za ich pośrednictwem, czujesz, że masz kontakt z prawdziwą osobą. Przewidujemy, że nasze QB znajdą zatrudnienie np. jako asystentki lub pracownicy udzielający informacji w centrach handlowych” – opowiada Trevor Blackwell, dyrektor generalny Anybots. Pensja dla takiego podwładnego nie będzie bardzo wysoka – jednorazowa inwestycja 15 tys. dolarów plus niewielkie już koszty eksploatacji.

A jeśli komuś nie do końca odpowiada cybernetyczny wizerunek Anybotów, wystarczy zgłosić się – choć już ze zdecydowanie większą ilością gotówki – do japońskiej firmy Kokoro. Jej specjalnością są maszyny sobowtóry, wykonywane indywidualnie dla klientów. Jak wierne mogą być takie kopie? Wystarczy spojrzeć na Geminoid F – dzieło prof. Hiroshi Ishiguro z Uniwersytetu w Osace. Kilka lat temu uczony wzbudził sensację, pokazując się w towarzystwie własnego cyberklona, który mógłby zamiast niego stawiać się na uczelni i np. umożliwiać zdalne prowadzenie wykładów. „Zdaniem Ishigury takie androidy mają większy autorytet niż zwykła teleobecność, np. podczas wideokonferencji” – mówi prof. Jennifer Robertson z Wydziału Antropologii i Historii Sztuki University of Michigan, która zajmowała się badaniem tego, jak ludzie odbierają roboty. Najnowszy model robota prof. Ishigury wzorowany jest na atrakcyjnej dwudziestokilkuletniej dziewczynie i choć nie może się samodzielnie poruszać, imponuje zdolnościami mimicznymi – uśmiecha się, wykrzywia usta z niesmakiem, unosi brwi, a także porusza wargami w czasie mówienia. Przy czym robi to, obserwując przez kamerę zachowanie operatorki, która może znajdować się w praktycznie dowolnym miejscu – byle tylko z dostępem do internetu. Taki wynalazek mógłby sprawdzić się np. jako zdalnie sterowana recepcjonistka.

Odkurzaczu mój kochany...

„Nie spodziewałbym się na razie wejścia na rynek awatarów, takich jak w filmie Jamesa Camerona, ale istniejące maszyny zasługują już na miano »robotarów«. Pozostaje jeszcze kwestia sterowania taką maszyną i odbierania za jej pośrednictwem bodźców zmysłowych” – wyjaśnia prof. Noel Sharkey. Jego zdaniem największe możliwości dałoby korzystanie z implantów wszczepianych do mózgu, ale skuteczne mogą być też mniej inwazyjne metody. „Niedawno pokazano małą mobilną maszynę Roboscout kierowaną przez człowieka ubranego w kask EPOC, rejestrujący aktywność mózgu. Z kolei bodźce czuciowe można by przekazywać operatorowi np. za pomocą przezczaszkowej stymulacji magnetycznej (TMS)” – mówi uczony. I dodaje, że jeśli cyberklon będzie zachowywał się podobnie do swego ludzkiego pierwowzoru, powinien szybko zostać zaakceptowany przez otoczenie.

Ale czy faktycznie takie roboty będą traktowane przez ludzi po partnersku, a nie jak kolejny rodzaj urządzenia biurowego czy AGD? „Przy obecnym stanie zaawansowania technologii jest to bardzo mało prawdopodobne. Badania, jakie przeprowadziłam z Christine Looser, jedną z moich studentek, wykazały, że ludzie traktują »żyjące na niby« manekiny zupełnie inczej niż prawdziwe osoby” – mówi prof. Thalia Wheatley, psycholog z Darthmouth College. Poza tym tworzenie cybernetycznych kopii człowieka może dać niespodziewane efekty, znane jako hipoteza doliny niesamowitości. Jeśli klon nie będzie doskonały – a osiągnięcie takiego stanu jeszcze długo będzie technicznie bardzo trudne – to wystarczy jeden nienaturalny szczegół, by ludzie zmienili swoje nastawienie i uznali maszynę za przerażającą. „Nie wiemy jednak, czy naprawdę tak się stanie. Nie dysponujemy jeszcze wystarczającą wiedzą dotyczącą ludzkiej percepcji” – podkreśla dr Bigle Mutlu z Wydziału Nauk Komputerowych University of Wisconsin-Madison.

Wiemy już natomiast, że maszyny mogą budzić w nas ciepłe uczucia nawet wtedy, gdy z wyglądu wcale nie są humanoidalne. Dowodzą tego badania prowadzone przez Beki Grinter z Georgia Institue of Technology. Zaintrygowało ją to, jak właściciele traktują popularne roboodkurzacze Roomba. Okazało się, że niektórzy ludzie zabierają swoje maszyny w podróż, nadają im imiona, stroją w ubranka... Jedna osoba nawet przedstawiała odkurzacz swoim rodzicom. Ważne też było to, że użytkownicy nie oczekiwali od Roomby idealnej dokładności – urok osobisty maszyny sprawiał, że wybaczali jej mniejsze czy większe potknięcia. Jest więc szansa, że gdy w niedalekiej przyszłości zamiast ciebie na zebraniu pojawi się robot, szef będzie trochę bardziej wyrozumiały niż zwykle.

Bądź soba (ale na kółkach)

Pozostaje tylko jeszcze jedna kwestia – jak ty sam będziesz się czuł, sterując zdalnie swym cyberwcieleniem? Zajął się tym zespół prof. Clifforda Nassa z pracowni CHIMe Lab na Stanford University. W eksperymencie zorganizowanym przez uczonych wzięli udział studenci, których zadaniem było obsługiwanie robotów o kształcie pojazdu albo zbliżonym do człowieka (materiałem budulcowym były klocki Lego Mindstorm NXT). Ochotnicy mieli następnie ocenić swoją współpracę z maszyną oraz to, czy się z nią identyfikowali. Jak się okazało, studenci silniej utożsamiali się z robotami pojazdami i częściej traktowali je jako „przedłużenie” swej osoby. Oceniali też je jako bardziej przyjazne i jako posiadające fajniejszą osobowość niż roboty antropomorficzne. Z kolei humanoidalny wygląd robota sprawiał, że operatorzy traktowali go bardziej jako indywidualny byt, będący pod mniejszą kontrolą i dlatego słabiej się z nim identyfikowali. Naukowcy twierdzą, że silne utożsamianie się z maszyną może czasami przeszkadzać. Tak może być w przypadku robotów-negocjatorów lub przeszukujących miejsca katastrof zdalnie sterowanych „ratowników”, którzy mogą ulec zniszczeniu w czasie misji. O ironio, akurat ta druga kategoria maszyn najczęściej nie przypomina wyglądem człowieka, tylko właśnie pojazd na kołach czy gąsienicach. Natomiast te roboty, które najchętniej traktowalibyśmy jak naszych zastępców czy cyberwcielenia, są zdecydowanie humanoidalne. Czy będzie nam to przeszkadzać? Czas pokaże – i to zapewne już niedługo.