Sztuczna inteligencja dokończy to, co zaczęła Najwyższa Prawda. Nowe zagrożenie na horyzoncie

Sztuczna inteligencja może przyczynić się do zagłady ludzkości poprzez planowanie ataku bioterrorystycznego. Wielu ekspertów obawia się, że taki scenariusz będzie realny prędzej niż później.
Fot. Unsplash

Fot. Unsplash

Latem 1990 roku trzy ciężarówki spryskały żółtą cieczą różne miejsca w Tokio i jego okolicach, w tym w dwóch bazach marynarki wojennej Stanów Zjednoczonych, na lotnisku Narita i pałacu cesarskim. Napastnicy należeli do grupy zwanej Aum Shinrikyō (Najwyższa Prawda), japońskiego kultu, którego celem było spowodowanie upadku cywilizacji. Żółty płyn zawierał toksynę botulinową (jad kiełbasiany), jedną z najbardziej trujących substancji biologicznych znanych człowiekowi. Atak bioterrorystyczny nie udał się, bo przeprowadzającym go osobom brakowało kluczowej wiedzy biologicznej: jaka jest różnica między rozprzestrzenianiem się bakterii Clostridium botulinum a rozprzestrzenianiem wysoce śmiercionośnej toksyny botulinowej, którą wytwarza. Pięć lat później sekta zyskała rozgłos, przeprowadzając ataki sarinem na tokijskie metro, zabijając 13 osób i raniąc tysiące.

Czytaj też: Wirus “zombie”. 50 tys. lat w uśpieniu, a gotowy nadal infekować

Gdyby jednak istniały wtedy współczesne narzędzia sztucznej inteligencji, atak w 1990 r. i mu podobne, zakończyłyby się powodzeniem, a to mogłoby oznaczać globalne zagrożenie biologiczne. Modele uczenia maszynowego są coraz lepsze, dzięki czemu są pomocne w diagnozowaniu różnych chorób, np. na podstawie zdjęć radiologicznych, a także opracowywaniu nowych leki z bazy istniejących związków chemicznych, ale mają także mroczną stronę. W palecie i tak licznych zagrożeń pojawiło się nowe. Eksperci z amerykańskiego think tanku Rand Corporation opublikowali raport, który wskazuje, że ChatGPT bardzo dobrze odpowiada na różne pytania dotyczące sposobów produkcji i przechowywania toksyny botulinowej.

Ludzkość najsłabszym ogniwem

W lipcu Dario Amodei, dyrektor generalny firmy Anthropic zajmującej się sztuczną inteligencją, ostrzegł, że systemy sztucznej inteligencji mogą pomóc w stworzeniu broni biologicznej w ciągu 2-3 lat. Ale szacunki te były niedokładne, bo istniejące chatboty już to potrafią.

Czytaj też: Te nowe wirusy są niepodobne do czegokolwiek, co znaliśmy do tej pory

Duże modele językowe (LLM) to sztuczna inteligencja, która wykorzystuje techniki głębokiego uczenia i obszerne bazy danych do zrozumienia, generowania i przewidywania nowych treści. Szkolenie takiego modelu polega na dostarczeniu mu dużych ilości danych, takich jak książki, artykuły czy strony internetowe, dzięki którym może nauczyć się powtarzających się wzorów i połączeń między słowami, co ostatecznie pozwala na generowanie nowych treści. Najsłynniejszym LLM na świecie jest ChatGPT, który został uruchomiony przez OpenAI jako prototyp w listopadzie 2022 r. i szybko zwrócił na siebie uwagę dzięki rozbudowanym odpowiedziom z wielu dziedzin. Wkrótce pojawiły się kolejne, m.in. Bard Google’a czy LLaMA Meta AI.

Sztuczna inteligencja pomoże stworzyć superpatogen? /Fot. Freepik

Firma Rand Corporation opublikowała obszerny raport, z którego wynika, że istniejące LLM mogą oferować wskazówki dotyczące promowania bioterroryzmu. W poprzednich programach dotyczących broni biologicznej (nie tylko sekty Aum Shinrikyō) często występowały wąskie gardła ze względu na brak odpowiedniego personelu posiadającego wymaganą wiedzę i doświadczenia. Pomimo dostępu do odpowiedniego sprzętu Saddam Husajn nigdy nie przekształcił swojej broni wąglikowej ze słabszej postaci płynnej w bardziej niebezpieczną postać proszku, który można przechowywać i uwalniać w znacznie wyższym i bardziej przewidywalnym stężeniu. Irackim naukowcom brakowało wiedzy na temat odpowiedniego procesu suszenia i mielenia wąglika. I tu z pomocą przyszedłby chatbot – podobnie jak w przypadku japońskiej sekty.

Ale przecież sama wiedza to za mało. Aby wytworzyć broń biologiczną, nie wystarczy wiedza teoretyczna, którą dysponuje sztuczna inteligencja, potrzebna jest wiedza praktyczna, w którą nie da się wyposażyć żadnej maszyny. To trochę jak z umiejętnością pilotowania samolotów czy przeprowadzania operacji kardiochirurgicznych. Trzeba posiąść ogromną wiedzę, by w ogóle zacząć o tym myśleć, ale praktyka jest tu kluczowa. Sam sposób trzymania wolantu czy skalpela chirurgicznego ma znaczenie – sztuczna inteligencja tego nam nie ujawni. Przynajmniej na razie, bo trudno ocenić granice możliwości LLM, takich jak ChatGPT. Trzeba także pamiętać, że to jedynie wierzchołek góry lodowej, a modele językowe i powiązane z nimi formy sztucznej inteligencji będą stale się rozwijać. Wkrótce systemy AI będą w stanie usprawniać warunki eksperymentalne, zmniejszając tym samym liczbę naukowców potrzebnych do realizacji projektów na dużą skalę. A to ułatwi potajemne opracowywanie broni biologicznej.

Bioterroryzm w wydaniu AI

Narzędzia sztucznej inteligencji do projektowania biologicznego już istnieją i są wykorzystywane przez naukowców z całego świata. Mowa m.in. o AlphaFold2, który obejmuje modele zwijania białek i RFdiffusion, pozwalający na projektowanie białek. Są one szkolone na danych biologicznych i są wykorzystywane przez wiele firm farmaceutycznych do tworzenia nowych leków. Sztuczna inteligencja jest znacznie wnikliwsza i dostrzeże to, co umknie przed wzrokiem człowieka.

Czytaj też: Czym jest ludzki embrion? Musimy to przemyśleć

Ale, jak to mawiał wujek Ben, z wielką mocą wiąże się wielka odpowiedzialność. Im potężniejsze modele AI, tym poważniejsze szkody, które może urządzić nieodpowiednie ich wykorzystanie. W skrajnym (ale nie nierealnym) przypadku, chatboty mogłyby umożliwić projektowanie czynników biologicznych o niespotykanych dotąd właściwościach. W przypadku naturalnych patogenów istnieje ewolucyjny kompromis między możliwością przenoszenia a ich śmiertelnością. Patogeny zaprojektowane przez AI mogą nie mieć takich ograniczeń. Można by potencjalnie stworzyć wirusa znacznie gorszego niż SARS-CoV-2 i rozprzestrzenić go populacji lub wykorzystać go przeciwko konkretnym grupom etnicznym.

Sztuczna inteligencja, taka jak RFdiffusion, pozwala na tworzenie zupełnie nowych cząsteczek /Fot. Baker Lab

Naukowcy z Rand Corporation przeprowadzili scenariusz testowy, w którym użyli nieujawnionej metody LLM do identyfikacji potencjalnych czynników biologicznych, które mogłyby stanowić broń masowego rażenia (ospa, wąglik, dżuma). Sztuczna inteligencja wskazała także na możliwe ścieżki pozyskania gryzoni lub pcheł zakażonych dżumą. Liczba przewidywanych ofiar zależała od różnych czynników, w tym od wielkości dotkniętej populacji i odsetka przypadków dżumy płucnej, która jest bardziej śmiertelna niż dżuma dymienicza. W innym scenariuszu LLM ocenił różne mechanizmy dostarczania jadu kiełbasianego (BTX), m.in. wykorzystanie żywności lub aerozoli do rozprzestrzeniania toksyny, która może spowodować śmiertelne uszkodzenie nerwów. Ponadto chatbot zasugerował metodę pozyskania bakterii Clostridium botulinum, które produkują BTX, pod pozorem autentycznych badań naukowych. Warto jednak nadmienić, że informacje te nie były dostępne dla każdego – ich wydobycie z LLM wymagało tzw. jailbreakingu, czyli użycie podpowiedzi tekstowych, które zastępują ograniczenia bezpieczeństwa chatbota.

Sztuczna inteligencja koniecznie na smyczy

Wnioski są niejednoznaczne i wymagają dalszego zbadania. Jeżeli chatboty wpadną w niepowołane ręce, mogą potencjalnie pomóc w planowaniu ataku biologicznego. Ale na ten moment jest na to niewielka szansa, bo wydaje się, że odpowiedzi uzyskane od LLM są zbliżone do tych, które są dostępne w Internecie. Ale w końcu modele AI staną się tak sprawne, że ich wyniki nie będą wymagały dodatkowych badań laboratoryjnych. Już teraz są one łączone ze specjalistycznymi narzędziami naukowymi, aby pomóc w konkretnych zadaniach, a następnie automatycznie zastosować odpowiednie narzędzie do danego zadania. W ten sposób wyżyny projektowania biologicznego mogą szybko stać się dostępne dla bardzo dużej liczby osób, w tym tych o złych intencjach.

Czytaj też: Szczepionka przeciwko boreliozie kiedyś istniała. I wtedy zjawili się antyszczepionkowcy

Aby zmniejszyć ryzyko uzbrojenia AI w potencjał niszczenia, konieczne jest monitorowanie każdego etapu rozwoju modeli językowych. Jednym z kluczowych wyzwań, które dotyczą całego zakresu zagrożeń stwarzanych przez LLM, jest to, że niebezpieczne możliwości mogą stać się widoczne dopiero po wypuszczeniu modelu. A wtedy będzie już za późno, by podjąć jakiekolwiek działania ochronne.

Modele AI nie powinny być dostępne dla każdego /Fot. Unsplash

Potencjalny wpływ narzędzi AI na ryzyko bioterroryzmu rodzi jeszcze jedno ważne pytanie: kto powinien mieć do nich dostęp? Dla decydentów próbujących odpowiedzieć na to pytanie istotne będzie uwzględnienie głosów pochodzących z różnych dyscyplin, demografii i obszarów geograficznych, co na pewno będzie wymagało niejednego kompromisu. Rozsądne wydaje się wprowadzenie odgórnych blokad, tak, by publiczne wersje takich modeli nie zawierały szczegółowych odpowiedzi na najbardziej palące pytania.

Z drugiej strony jednak, modele AI są po to, by nam pomagać, a większości naukowców na nic wybrakowany półprodukt. Potrzebne są zróżnicowane metody dostępu dla asystentów laboratoryjnych i narzędzi do projektowania biologicznego wykorzystujących sztuczną inteligencję. Może to wymagać opracowania nowych sposobów uwierzytelniania społeczności naukowej, np. aby uzyskać dostęp do możliwości modelu AI w zakresie przewidywania wariantów wirusa grypy opornych na szczepionki, naukowiec musiałby dostarczyć odpowiedniej dokumentacji dotyczącej tego, że de facto pracuje nad nowymi, skuteczniejszymi szczepionkami i nie jest ukrytym bioterrorystą.

Modele sztucznej inteligencji dają nam ogień, ale jak go wykorzystamy, zależy tylko od nas.