Niebezpieczna sztuczna inteligencja

Marzymy o niej i zarazem boimy się jej. Nie bez powodu. Sztuczna inteligencja już wkrótce może stać się dla nas naprawdę groźna.

Brązowy olbrzym Talos z Krety. Gliniany golem z Pragi. Komputer HAL z „Odysei kosmicznej”. Każdy z tych fikcyjnych tworów miał być zaprojektowany przez człowieka i obdarzony inteligencją podobną do naszej. Ten mit ma się do dziś znakomicie. Cały czas powstają filmy o różnych odmianach sztucznej inteligencji (AI). Ma ona grać jedną z głównych ról chociażby w drugiej części „Avengers”. Opowieści o AI są zadziwiająco podobne. Maszyny czy komputery są w nich kopiami człowieka. Myślą według ludzkich schematów, rozmawiają, odczuwają emocje. Jednak takie podejście do inteligentnych maszyn to poważny błąd.

Agresywne jak my

Ludzki mózg to efekt milionów lat ewolucji, która dopasowywała jego działanie do warunków, w jakich żyli nasi praprzodkowie. Aby bezbronne, stopniowo łysiejące małpy mogły przetrwać, potrzebna była współpraca w grupie. To ona doprowadziła do wykształcenia mowy, mimiki i mnóstwa zachowań, które dziś leżą u podstaw działania społeczeństwa. Ale sztuczna inteligencja ma nas przerastać możliwościami i szybkością myślenia. Jej celem nie powinno więc być skopiowanie ludzkiego mózgu wraz z jego ograniczeniami, lecz zbudowanie czegoś szybszego i sprawniejszego. I tu trafiamy na pierwszą przeszkodę. Ultron z drugiej części „Avengers” to AI przewyższająca ludzi możliwościami, ale zarazem bardzo do nich podobna.

Twórca jego mózgu (czyli systemu operacyjnego) musiał więc zakodować w nim dziedzictwo tych milionów lat ewolucji, które nosimy w naszych głowach. Zarówno zalety, jak i wady. Przykłady tych drugich można mnożyć. Wiadomo, że dla naszego mózgu ważne jest rozpoznawanie twarzy innych ludzi. Ten mechanizm jest jednak niedoskonały i nierzadko zdarza się, że widzimy twarze tam, gdzie ich nie ma. Dlatego część z nas upiera się, że dostrzega np. wizerunek Matki Boskiej w drzewach czy kamieniach. Dlaczego Ultron miałby popełniać ten sam błąd? Złudzenia wzrokowe to jednak sprawa dość niewinna. W naszych mózgach zakodowane są rzeczy o wiele mniej przyjemne, jak chociażby skłonność do stosowania przemocy. Dowodzą tego obserwacje blisko spokrewnionych z nami szympansów. Te miłe małpy potrafią prowadzić wojny, urządzać zasadzki i znęcać się nad osobnikami z innego stada. W tym kontekście przestaje dziwić, że golem, HAL czy Ultron śmiertelnie zagrażają ludziom. Po prostu zachowują się tak, jak Homo sapiens często ma w zwyczaju.

Algorytm zdecyduje za ciebie

Twórcy science fiction lubią też od czasu do czasu pokazywać sztuczną inteligencję jako istotę bardzo mądrą i dzięki temu bardzo dobrą. Taka jest Jane z powieści „Mówca umarłych” Orsona Scotta Carda. Działa ona wszędzie tam, gdzie sięgają ludzkie sieci telekomunikacyjne. Łagodna, dobrotliwa, troskliwa, pomaga ludzkości i zachowuje się z niezwykłym taktem i wyczuciem, sama narzucając sobie ograniczenia. To piękna wizja, ale równie nieprawdziwa jak poprzednie. Warto pamiętać o tym, że całe nasze myślenie o sztucznej inteligencji jest nieobiektywne. Ostatecznie patrzymy na komputery z ludzkiego punktu widzenia. Oczekujemy, że sztuczna inteligencja – gdy wreszcie powstanie – będzie mówić, a nawet wyglądać jak my. Golem jest człekokształtny, HAL ma łagodny, ciepły głos… Tymczasem AI – ta prawdziwa, nie filmowa – wcale nie musi tak wyglądać. Może być znacznie bardziej dyskretna i podstępna. Gdyby narodziła się sama, niczym Skynet znany z „Terminatora”, gdzieś w internecie czy gigantycznych farmach serwerów, zapewne najpierw by nas obserwowała. A potem nauczyłaby się nami manipulować.

 

Wyobraźmy sobie coś, co może w każdym momencie dowolnie modyfikować dane przesyłane przez internet. Taka AI miałaby potężny wpływ na dużą część świata, a zarazem byłaby niemal niewykrywalna. Moglibyśmy się pocieszać, że to nadal tylko fikcja – gdyby nie algorytmy. To programy działające w internecie, na komputerach czy urządzeniach mobilnych, które analizują nasze zachowania. Wyszukiwarka Google uczy się tego, co nas interesuje i wyświetla nam reklamy na tej podstawie. Tak samo działają algorytmy Facebooka, sklepów internetowych podsuwających nam rekomendacje czy serwisów randkowych, dopasowujących ludzi na podstawie mnóstwa różnych parametrów. Skomputeryzowanych systemów do analizy danych coraz częściej używają banki, ubezpieczalnie czy szpitale. Oczywiście trudno nazwać to sztuczną inteligencją, ale równie trudno byłoby uznać, że nie ma to na nas żadnego wpływu. Programy komputerowe zaczynają decydować o tym, co kupujemy, z kim się spotkamy albo czy dostaniemy kredyt. HAL czy Ultron mogą tylko pomarzyć o takiej władzy.

Kto będzie tu rządzić?

Nic dziwnego, że coraz częściej pojawiają się apele, aby AI podlegała ludzkiej kontroli. Mówi o tym chociażby wybitny fizyk i wizjoner prof. Stephen Hawking. Jego zdaniem nie istnieją fizyczne ograniczenia rozwoju sztucznej inteligencji. „Można wyobrazić sobie taką technologię, która przechytrzy rynki finansowe, prześcignie badaczy i zmanipuluje przywódców oraz opracuje broń, której zasad działania nawet nie będziemy mogli zrozumieć. Krótkoterminowy wpływ sztucznej inteligencji zależy od tego, kto ją kontroluje, długoterminowy – od tego, czy w ogóle można ją kontrolować” – twierdzi uczony.

W styczniu tego roku opublikowany został list otwarty podpisany przez czołowych wynalazców, specjalistów od nowych technologii i naukowców (w tym przez prof. Hawkinga). Sygnatariusze podkreślają korzyści, jakie da wykorzystanie sztucznej inteligencji, ale są też bardzo ostrożni: „Zalecamy przeprowadzenie szeroko zakrojonych badań skupiających się na tym, by rozbudowujące się systemy sztucznej inteligencji miały solidne podstawy i przynosiły korzyści. Nasza sztuczna inteligencja musi robić dokładnie to, co chcemy, by robiła”.

Tylko czy to w ogóle możliwe? AI może przerastać nas tak bardzo i rozwijać się tak szybko, że zapanowanie nad nią będzie całkowicie niemożliwe. Bo ograniczenia, które możemy jej narzucić, mogą być tylko takie, jakie zdołamy wymyślić. Tymczasem sztuczna inteligencja ma – z definicji – być od nas lepsza w myśleniu.

Co gorsza, jej rozwój może sprawić, że ludzie, którzy myśleniem zarabiają dziś na życie, stracą pracę, a więc i wpływ na dalsze losy świata. Taką wizję kreśli prof. Erik Brynjolfsson, ekonomista z MIT Sloan School of Management w książce „The Second Machine Age”. Dziś mówi się o tym, że automatyzacja i roboty pozbawiają ludzi pracy fizycznej. Co się stanie, jeśli komputerowe myślenie okaże się lepsze od ludzkiego wszędzie tam, gdzie potrzebne są zdolności analityczne i kreatywność? Według Brynjolfssona w samych tylko USA zniknęłoby 47 proc. stanowisk pracy. Piszmy więc o sztucznej inteligencji, debatujmy i twórzmy jej wizje – póki jeszcze możemy…