Czy rzeczywiście mamy się czego bać? Szukając odpowiedzi, postanowiłem przyjrzeć się trzem coraz bardziej popularnym a jednocześnie dającym człowiekowi niezwykłą władzę gałęziom nauki. Czy mikroskopijne roboty mogą zaludnić naszą planetę? A może to sztuczna inteligencja lub manipulowanie klimatem doprowadzi do zagłady? Uważajmy, nauka może stać się przyczyną końca naszej cywilizacji. Oto trzy całkiem realne scenariusze.

Scenariusz NR 1 - Szara maź

Czy da się zamienić zupę fasolową w człowieka? Owszem, nie tylko zupę, ale także hamburger albo sałatkę. Białka roślin czy zwierząt, węglowodany, tłuszcze, minerały, witaminy zamienią się w składniki naszego ciała – mięśnie, nerwy, kości itd. Magia? Nie, to stworzona przez naturę molekularna technologia, działająca w naszych komórkach.

Nad jej opanowaniem pracują naukowcy na całym świecie. Po pierwszej fali prostych, nanotechnologicznych produktów w postaci dodatków do farb, tkanin, kosmetyków czy materiałów konstrukcyjnych pojawiają się już bardziej złożone konstrukcje.

Przykładem jest biochemiczny nanorobot opracowany niedawno na University of Florida. Wprowadzony do ludzkiego organizmu, robot potrafi rozpoznać wirusa zapalenia wątroby i uszkodzić go tak, aby nie mógł się namnażać. Pionierzy nanotechnologii, tacy jak Ralph Merkle, mówią o nanofabrykach, które mają pojawić się za dwie do pięciu dekad. Manipulując pojedynczymi atomami, będą produkowały dowolne przedmioty z ziemi lub odpadów – zupełnie jak wymyślone przez Lema syntetyczne nasiona, które kiełkowały w samochody czy magnetofony. Medyczne nanoroboty będą natomiast dbać o nasze zdrowie i naprawiać wszelkie uszkodzenia ciała.

Każdy medal ma dwie strony. Eric Drexler, jeden z pionierów nanotechnologii, przedstawił scenariusz, w którym samoreplikujące się maszyny zamieniają całą planetę w tzw. grey goo (szarą maź) zbudowaną z kolejnych kopii nanorobotów. Czy taki scenariusz rzeczywiście jest możliwy?

Zapytałem o to profesora Tomasza Ciacha, zajmującego się medyczną nanotechnologią na Politechnice Warszawskiej. Uczony nieco mnie uspokoił. – Pamiętajmy, że światem rządzą prawa fizyki, do takiej replikacji potrzebna jest energia. Popatrzmy na organizmy żywe. Mimo że rozmnożyły się na naszej planecie, biomasa stanowi stosunkowo niewielką jej część. A przecież każdy gatunek za cel stawia sobie wytworzenie jak największej liczby własnych kopii. Dostęp do energii jest zawsze ograniczony. Jeśli przyroda nie stworzyła organizmu, który zdominowałby całą planetę, ludziom raczej też się to nie uda. Oczywiście, potrafimy zaprojektować urządzenia sprawdzające się w specyficznych warunkach, ale w naturze są one na przegranej pozycji. Spójrzmy na samochody. Co prawda jeżdżą szybciej, niż biegają gepardy, ale pozbawione dróg staną i zardzewieją.

Oczywiście wytwory nanotechnologii mogą być groźne. Weźmy wirusa grypy. To przecież biologiczny robot, który zabił już miliony ludzi. Do czego będą zdolne syntetyczne nanoroboty – tego nie wiemy.

Jak w takim razie mamy postępować? Eric Drexler proponuje np. aby produkcyjne nanoroboty mogły działać tylko w ściśle określonych warunkach, podobnie jak ramię zwykłego robota może pracować tylko odpowiednio podłączone w fabryce. Według uczonego należy też zrezygnować z możliwości samoreplikacji. To na początek. Jak trudna w praktyce będzie kontrola nanowynalazków, pokaże dopiero przyszłość.

Scenariusz NR 2 - Dominacja sztucznej inteligencji

A jeśli maszyny staną się od nas mądrzejsze? Profesor matematyki i uznany pisarz powieści science fiction Vernor Vinge ukuł pojęcie technologicznej osobliwości: przekroczenie pewnego progu w rozwoju techniki ma doprowadzić do jej niekontrolowanej i nieodwracalnej eksplozji. To na zawsze zmieni naszą planetę, a głównym sprawcą tego procesu ma być sztuczna inteligencja przewyższająca intelektualne możliwości ludzi.

Według znanego eksperta w tej dziedzinie prof. Hugo de Garisa, pod koniec wieku komputery będą postrzegały inteligencję człowieka, tak jak my dzisiaj patrzymy na zdolności np. komara. Pesymiści ostrzegają, że potężne maszyny zniszczą nas, nawet jeśli nie będą do nas wrogo nastawione. Przecież my, budując autostradę, nie zastanawiamy się nad losem mrówek. Czysta atmosfera czy woda mogą nie być robotom do niczego potrzebne. Inni wizjonerzy, tacy jak genialny informatyk i od niedawna dyrektor ds. inżynierii w Google Ray Kurzweil, twierdzą, że poprzez penetrującą nasze ciała nanotechnologię połączymy się z maszynami i globalnym systemem sztucznej inteligencji, osiągając w ten sposób nadludzkie możliwości. Jest jednak pewien haczyk. Według Kurzweila, aby nadążyć za syntetycznymi mózgami nie będziemy mieli innego wyboru jak się z nimi złączyć. Niezależnie, czy rację mają pesymiści, czy optymiści, cywilizacja, jaką znamy, przestanie istnieć.

Ale czy sztuczna inteligencja rzeczywiście ma potencjał takiego rozwoju i samostanowienia? Z tym zagadnieniem zwróciłem się do profesora Jarosława Arabasa z Politechniki Warszawskiej.

– To raczej kwestia przekonań. Ja ich nie podzielam. Oczywiście mało jest na świecie rzeczy, które całkowicie można wykluczyć, ale uważam, że maszyny nas nie zdominują. To prawda, że komputery potrafią już dokonywać samodzielnych odkryć, ale ich działanie jest zaprogramowane. Poza tym odkrycia te dotyczą problemów szczegółowo zdefiniowanych, z określonymi parametrami rozwiązania. Nie bałbym się więc buntu maszyn – mówi prof. Arabas. – Człowiek wymyśli coś choćby z nudów, a komputer zrobi to w czasie i w sposób określony przez program. Trudno będzie komputerom mieć twórczą wenę.

Uczeni nie chcą oddać naszego losu w ręce przypadku. W Cambridge zespół złożony z filozofów, naukowców i inżynierów utworzył niedawno Centrum Badań nad Ryzykiem Egzystencjalnym. Jednym z głównych zadań specjalistów jest właśnie ocena zagrożeń ze strony sztucznej inteligencji. Tylko czy jesteśmy wystarczająco inteligentni, aby tej oceny dokonać?