W relacjach człowiek–robot wkraczamy na ciekawy, ale i niebezpieczny poziom. Jak siebie wzajemnie chronić?

Coraz doskonalsze maszyny coraz lepiej zaspokajają nasze potrzeby. Zawsze mają dla nas czas, są bezgranicznie cierpliwe, nigdy się nie obrażają, nie są agresywne. A w naturze człowieka jest, by odwdzięczać się tym samym.
W relacjach człowiek–robot wkraczamy na ciekawy, ale i niebezpieczny poziom. Jak siebie wzajemnie chronić?

Nazywamy ją Elly. Rozmawiamy z nią. Jest jak członek rodziny” – mówi Brady, 28-letni sier żant amerykańskiej armii. „Nasz nazywa się Fido. Dbamy o niego tak samo, jak o innych członków naszego zespołu” – dodaje Wade, 42-letni sierżant sztabowy Gwardii Narodowej. O kim mówią? Nie, nie o ludziach. Żołnierze mówią o małych bojowych robotach, które pomagały im w usuwaniu min w Iraku i Afganistanie. Gdy jedna z takich maszyn, czterokołowy MARCbot wyleciał pewnego dnia w powietrze, jego towarzysze broni pochowali go z honorami. Sami zrobili dla niego medal Purpurowe Serce przyznawany rannym lub zabitym żołnierzom amerykańskiej armii, a nad „grobem” robota oddali salwę z 21 karabinów.

Można by tę historię potraktować jako anegdotę gdyby nie fakt, że „śmierć” robota żołnierze przeżywali niemal tak ciężko, jak gdyby był człowiekiem. A stan psychiczny żołnierza ma ogromny wpływ na jego relacje w kolegami z oddziału i cywilami, prawidłowy osąd sytuacji czy zdolność podejmowania racjonalnych decyzji. Amerykańska armia poprosiła więc Julie Carpenter z University of Washington, by przeprowadziła badanie na grupie 23 żołnierzy wyszkolonych w posługiwaniu się robotami do rozbrajania ładunków wybuchowych. Wnioski
okazały się zdumiewające.

Carpenter jest doktorem nowej nauki o relacjach ludzi i maszyn – Human-Robot Interaction, w skrócie HRI. Uważa, że nasze stosunki z robotami wyszły już dawno poza zimną relację człowiek–maszyna. Zresztą przygotowywani byliśmy na to od lat. Dzisiejsi pięćdziesięciolatkowie zachwycali się naprawczym droidem R2-D2 z „Gwiezdnych wojen”. Trzydziestolatkowie karmili elektroniczne Tamagotchi, a dwudziestolatkowie przytulali futrzane Furby reagujące na dotyk i uczące się prostych słów. Dzisiejsze roboty są o wiele doskonalsze.

 

PRAWIE CZŁOWIEK

Amerykańska armia stała się dla Julie Carpenter doskonałym miejscem do obserwowania tego, jak zmienia się emocjonalne podejście ludzi do maszyn, z którymi spędzają oni coraz więcej czasu, wykonując wspólną pracę. Ciężkie, specjalistyczne treningi. Poczucie odpowiedzialności za partnera i popełnione w czasie akcji błędy. A to wszystko w izolacji od bliskich, z daleka od domu, w ciągłym poczuciu zagrożenia. Żołnierze, z którymi rozmawiała badaczka, nie przyjmowali do wiadomości, że uszkodzona maszyna jest już tylko złomem.Domagali się, by ją naprawić. „Te małe skurczybyki mają osobowość” – mówił jeden z żołnierzy. „Jeśli ginie robot, który nieraz uratował ci życie, czujesz wielki smutek” – opowiadał 41-letni Jed. Operatorzy robotów mieli do nich stosunek taki jak do żywych stworzeń, np. psów. Ale czasem wykraczało to nawet poza takie relacje. Trzeba bowiem pamiętać, że wojskowe roboty to szczytowe osiągnięcia tej technologii, maszyny, których możliwości w cywilnym życiu poznamy być może dopiero za kilka, kilkanaście lat. Żołnierze są więc pierwszymi ludźmi, którzy mają na co dzień do czynienia z naprawdę zaawansowaną sztuczną inteligencją. Ale już niedługo tego rodzaju relacje i emocje staną się doświadczeniem nas wszystkich. Jak sobie z nimi poradzimy?

Badacze tacy jak Julie Carpenter czy profesor Sherry Turkle z MIT uważają, że już dziś musimy zacząć zadawać sobie pytanie o naturę naszych emocji wobec zaawansowanych technologicznie maszyn. Z czego one wynikają? Ostatecznej odpowiedzi wciąż nie ma, ale naukowcy są już coraz bliżej rozpoznania istoty problemu.

 

POSŁUCHAJ MASZYNY…

Kiedy profesor Turkle w 1983 roku spytała nastolatka, kogo chętniej poprosiłby o radę w sprawie umawiania się z dziewczyną – ojca czy robota – ten bez wahania wskazał na tatę, twierdząc, że maszyna nigdy nie będzie w stanie zrozumieć natury międzyludzkich relacji. 25 lat później odpowiedź na to samo pytanie była już zupełnie inna. Nastolatek wskazał na robota, twierdząc, że maszyna z dużą bazą danych dotyczących relacji międzyludzkich i odpowiednim oprogramowaniem udzieliłaby lepszej odpowiedzi niż ojciec. Dziś, w czasach wirtualnych asystentów głosowych takich jak Siri Apple’a czy Amazon Alexa takie odpowiedzi powoli stają się oczywistością.

Po drugie maszyny w coraz większym stopniu przypominają ludzi lub zwierzęta. Czworonożny Spot firmy Boston Dynamics może skakać, biegać, wspinać się po schodach, wstawać, kiedy się wywróci, ale też wykonywać 70 proc. prostych „ludzkich” czynności. Na przykład sprzątnąć dom lub przynieść zakupy. To dopiero początek. Testowany właśnie w Rosji FEDOR – czym pochwalił się na Twitterze sam wicepremier rządu tego kraju Dmitrij Rogozin – w 2021 roku ma polecieć w charakterze pierwszego pilota na stację kosmiczną i zastąpić pracujących tam ludzi. Przekonać go do odstąpienia od tego zadania będzie zapewne trudno, ponieważ, jak napisał Rogozin, FEDOR „potrafi już całkiem nieźle strzelać z obu rąk”.

To jednak nic. Niedawno świat obiegła wiadomość, że Chińczyk Zheng Jiajia, 31-letni specjalista od sztucznej inteligencji z miasta Hangzhou, wziął „ślub” ze skonstruowanym przez siebie androidem do złudzenia przypominającym prawdziwą kobietę. Jiajia twierdzi, że jego wybranka ma same zalety – jest oddana i cierpliwa, a do tego mądra i piękna. Czy będzie słuchał jej rad, nie ujawnił, niemniej warto śledzić to małżeństwo. Kto wie, czy nie taka będzie przyszłość relacji człowiek–robot…

Z kolei Jack Ma, założyciel i prezes firmy Alibaba, drugiej największej po Amazonie spółki handlu internetowego, twierdzi, że za 30 lat, czyli około 2047 roku, robot znajdzie się na tytułowej stronie magazynu „Time” jako najlepszy CEO (szef firmy) na świecie. Zdaniem Ma już za dwie dekady nadejdą czasy szefów robotów, które zdominują kadry zarządzające, ponieważ będą podejmowały bardziej racjonalne decyzje niż ludzie, pozbawione emocji i uprzedzeń. Cechy takie byłyby też zaletą u robotów sędziów i robotów policjantów. Testy tych ostatnich już trwają.

 

NIE DRĘCZ KOMPUTERA!

Azjatom niewątpliwie łatwiej jest przyjąć do wiadomości, że niedługo będą musieli traktować maszyny tak jak ludzi: słuchać ich i szanować. Rozpowszechniony w Azji szintoizm i religie animistyczne uznają, że duszę mogą mieć nie tylko ludzie, ale też przedmioty – nam wydawałoby się – martwe. Skoro więc duszę może mieć kamień lub drzewo, to czemu nie maszyna? Okazuje się jednak, że „ludzkie” traktowanie robotów to cecha nie tylko azjatycka.

W 2007 roku Christoph Bartneck, profesor robotyki z uniwersytetu w Canterbury w Nowej Zelandii postanowił przeprowadzić badanie bazujące na słynnym eksperymencie Stanleya Milgrama z początku lat 60. XX wieku. Podczas tego eksperymentu przypadkowo wybrani statyści, wcielając się w role nauczycieli i uczniów, mieli zadawać i odpowiadać na pytania. Zła odpowiedź była karana wstrząsem elektrycznym.

W eksperymencie Bartnecka odpowiedzi zamiast ludzi miały udzielać komputery, które profesor opisał jednak jako zaawansowane urządzenia posiadające indywidualne cechy i swoistą „osobowość”. Karą za udzielenie wielu złych odpowiedzi miało być ich ostateczne wyłączenie, pozbawiające je na zawsze tych atrybutów. Milgramowski eksperyment wobec maszyn przebiegł podobnie jak wobec ludzi: poddający się woli autorytetu „nauczyciele” byli gotowi wyłączyć udzielające złych odpowiedzi komputery, chociaż te „błagały” ich napisami na ekranach, by tego nie robili.

Bartneck zauważył jednak wielkie moralne dylematy uczestników eksperymentu. Wielokrotnie odkładali podjęcie decyzji, prosili, by dać maszynie jeszcze jedną szansę. Średni czas liczony od podjęcia decyzji do wyłączenia komputera wyniósł aż 35 sekund. „Ile czasu potrzebujemy, by wyłączyć telewizor lub wieżę stereo?” – pyta profesor. Zdecydowanie uczestnicy jego eksperymentu nie traktowali swoich „uczniów” jak bezduszne maszyny, chociaż ostatecznie ulegli woli autorytetu.

 

ŚMIERĆ ANDROIDA

Badaczka z MIT Kate Darling poszła w swoim badaniu jeszcze dalej. Do sprawdzenia reakcji ludzkich mózgów na przemoc wobec robotów użyła rezonansu magnetycznego. Badanym pokazywano na przemian sceny torturowania kobiety i małego mechanicznego dinozaura o imieniu Pleo. Niektóre obrazy były drastyczne: duszenie linką lub założoną na głowę plastikową torebką… W czasie badania okazało się, że chociaż mózgi uczestników eksperymentu silniej reagowały na sceny przemocy wobec kobiety, to reakcja na znęcanie się nad Pleo również była dobrze widoczna. W obu przypadkach stymulowana była ta sama część mózgu.

W inny sposób, ale równie dobitnie podobieństwo reakcji emocjonalnych pokazali kanadyjscy konstruktorzy hitchBOTa, małego androida, którego zadaniem było podróżowanie autostopem. Wyposażony w wyświetlacz z elektronicznym uśmiechem i serduszkiem robot w sześciopalczastych dłoniach trzymał karton z nazwą miasta, do którego chciał jechać. Wielu kierowców zatrzymywało się, by go zabrać: tak hitchBOT pokonał dystans z Massachussets do San Francisco w USA, a także kilka tras w Niemczech i Holandii.

Jego podróż śledzono dzięki lokalizatorowi GPS i kamerze, która co 20 minut robiła zdjęcia dokumentujące podróż. Szło mu całkiem nieźle, ponieważ hitchBOTa wyposażono w spory zasób anegdot, którymi zabawiał kierowców. Android podróżował z zespołem rockowym, gościł na meczu amerykańskiej drużyny baseballowej Red Sox, odwiedził konwent miłośników komiksów, był także gościem na ślubie. Przygodami hitchBOTa dzielili się ludzie na całym świecie, zakładając mu konta w portalach społecznościowych.

Pewnego dnia, niedaleko Filadelfii, robot został znaleziony „martwy” – z rozbitą „głową”, pozbawiony rąk. Historię opisały gazety, radio, telewizje, w internecie zawrzało. „Wstyd mi za moje miasto” – pisał jeden z mieszkańców Filadelfii. Ostatecznie okazało się, że „śmierć” robota była prowokacją wymyśloną na koniec eksperymentu przez jego konstruktorów – naukowców z Uniwersytetu Ryerson. Pokazała jednak dobitnie, jak ludzkie mogą być reakcje na przemoc wobec bezbronnej inteligentnej, i – nie ma co ukrywać – sympatycznej maszyny.

Równie niezwykły był eksperyment przeprowadzony w Japonii na ludziach, ich psach i robotach. Chociaż maszyny wyposażone były tylko w parę rąk z dłońmi, zwierzęta traktowały je jak żywe stworzenia. Był jednak warunek – wcześniej w podobny sposób musieli potraktować roboty właściciele zwierząt. Psy uważnie obserwowały relacje człowiek–maszyna i uczyły się ich od swoich panów.

 

EMANCYPACJA SZTUCZNEJ INTELIGENCJI?

Dla badaczy takich jak Kate Darling czy konstruktorzy hitchBOTa jest rzeczą oczywistą, że skoro relacje człowiek–robot mają tak emocjonalny charakter, to roboty powinny zostać objęte ochroną prawną. W końcu to właśnie z ludzkiej empatii wynikały wszystkie ruchy abolicjonistyczne: zniesienie niewolnictwa, obrona praw kobiet, likwidacja segregacji rasowej, a ostatecznie także przyznanie pewnych praw zwierzętom. Nie jest to wcale tak abstrakcyjna wizja, jak mogłoby się wydawać. W USA już działa Amerykańskie Towarzystwo Zapobiegania Okrucieństwu wobec Robotów (SPCR – Society for the Prevention of Cruelty to Robots), które dba również o godny „pochówek” niezdolnych już do funkcjonowania inteligentnych maszyn. W Japonii pijany mężczyzna, który zaatakował robota w jednym z lokali, został aresztowany i otrzymał wyrok o wiele wyższy, niż wynikałoby to wyłącznie ze „zniszczenia mienia”. Na początku tego roku Komisja Prawna Parlamentu Europejskiego zatwierdziła raport proponujący zestaw przepisów prawa cywilnego dotyczącego robotyki.

Projekt przewiduje m.in., że roboty powinny podlegać rejestracji, zostać objęte obowiązkowymi ubezpieczeniami oraz… płacić podatki. Przepisy te są o tyle istotne, że według prognoz tylko w ciągu najbliższej dekady roboty zabiorą mieszkańcom UE 7 mln miejsc pracy, głównie w transporcie i obsłudze klientów. Z kolei w krajach rozwijających się robotyzacja wyprze z firm aż 2/3 pracowników – takie ostrzeżenie pojawiło się niedawno w wystąpieniu Jim Yong Kima, prezesa Banku Światowego. Może się więc okazać, że emocje w relacjach człowiek–robot mogą przybrać też inny, o wiele bardziej gwałtowny charakter.

Specjaliści od stosunków ludzi i robotów mają więc coraz więcej pracy i problemów do rozwiązania. Jak pogodzić prawa człowieka i inteligentnych maszyn? Jak opodatkować ich pracę, aby było więcej środków na zasiłki dla rosnących rzesz bezrobotnych ludzi? Czy przyznać robotom prawa, by chronić je przed możliwą agresją ze strony tych ostatnich? A jeśli tak, to czym będzie taki robot – tylko „inteligentną maszyną”, czy może już „elektroniczną osobą”? Pytanie nie bez znaczenia, ponieważ – jak uważa Julie Carpenter – w ciągu najbliższej dekady roboty mogą zdominować także rynek usług seksualnych. A tu pojawia się ogromne pole dla wszelkich możliwych nadużyć.

 

ZAPROGRAMOWANA MORALNOŚĆ

Co do tego, że robotyzacja jest nieunikniona, nie ma wątpliwości. Szczególnie dużą rolę odegra w opiece nad rosnącą błyskawicznie rzeszą seniorów, a także nad dziećmi. Jako opiekunowie roboty mogą być o wiele lepsze niż ludzie: bezgranicznie cierpliwe, pozbawione agresji, zawsze mające czas, by wysłuchać człowieka. Jak wynika z badań Sherry Turkle, małe foczki roboty o nazwie Paro doskonale sprawdzają się w roli kompanów dla cierpiących na demencję i depresję starszych ludzi, poprawiając znacznie ich samopoczucie. Potrafią też angażować do interakcji dzieci z autyzmem i doskonale sprawdzają się w roli negocjatorów w tzw. robot-assisted games, asystentów terapii oraz asystentów rehabilitacji.

Problem jednak w tym, że o ile ludzie odczuwają emocje wobec robotów i dlatego wielu chce ochrony ich praw, o tyle one nie czują wobec nas… zupełnie nic. Profesor Stuart Russell z Uniwersytetu Berkeley uważa, że rozwiązanie tego problemu będzie w niedalekiej przyszłości najważniejszym wyzwaniem w konstruowaniu inteligentnych maszyn. Tylko czy oprócz sztucznej inteligencji ludziom uda się stworzyć sztuczną emocjonalność i sztuczną moralność? Sprowadzić skomplikowane i subtelne kwestie z zakresu psychologii, etyki, filozofii, prawa czy teologii do poziomu programu komputerowego?

Co do tego, że jest to niezbędne, Russell nie ma wątpliwości. „Wyobraźmy sobie, że jeździmy samochodem prowadzonym przez robota, który nigdy nie łamie przepisów. Wszystko jest OK do momentu, w którym nie mamy krwotoku i nie musimy jak najszybciej dotrzeć do szpitala” – mówi profesor. Empatia, ludzka cecha niezbędna do przeżycia, będzie tak samo potrzebna u zajmujących się nami robotów. Tylko jak je tego nauczyć? Russell uważa, że roboty mogą to zrobić same…czytając książki i oglądając telewizję. I tu pojawia się problem. Z lektur i programów TV mogą się bowiem nauczyć nie tylko dobrych zachowań, ale też bardzo wielu złych.

W 2014 roku szwajcarska policja wydała nakaz aresztowania osobnika, który kupił w sieci kilka tabletek ecstasy. Przestępcą okazał się algorytm stworzony przez dwóch artystów i wrzucony do internetu. A sztuczna kochanka pisząca czułe SMS-y? To już jest możliwe. Tylko jak zareaguje na to prawdziwa „zdradzana” żona? A robot asystent, którego zadaniem jest pilnowanie, by babcia wzięła codzienną porcję lekarstw, a ona odmawia? Jak powinien się zachować?

W relacjach człowiek–robot wkraczamy właśnie na niezwykle ciekawy, ale także bardzo niebezpieczny grunt. I od nas zależy, czy w kolejnych dekadach będziemy żywić wobec nich tak samo pozytywne emocje czy też znienawidzimy je. A one nas.