Zdaniem prof. Maksa Tegmarka autonomiczna broń będzie coraz bardziej dostępna. Przyczyny to m.in. postępująca miniaturyzacja urządzeń i brak skutecznego prawa delegalizującego używanie broni działającej bez bezpośredniej kontroli człowieka.

Bezzałogowe systemy latające pojawiły się po raz pierwszy w czasie walk w Afganistanie w 1995 roku. Były to drony bojowe MQ Predator. Maszyny te i kolejne ich wersje potrafią ostrzeliwać cele czy wysadzać w powietrze konwoje. Ale te drony były wciąż nadzorowane przez człowieka. To on naciskał spust.

W 2001 r. po raz pierwszy wykorzystano dron do zaatakowania człowieka. Amerykanie użyli w Afganistanie bezzałogowego samolotu MQ-1 Predator uzbrojonego w pociski rakietowe Hellfire. Miał on zabić przywódcę Talibów, mułłę Mohammada Omara. Zamach się nie udał, ale potem były kolejne tego typu próby. W sumie Amerykanie zabili w ten sposób już ponad 5 tys. ludzi.

Autonomiczne bombowce i roboty wyposażone w karabiny

Potem jednak wojskowi zaczęli pracować nad bronią coraz bardziej autonomiczną. W coraz większym stopniu sterowanie nią przejmują algorytmy sztucznej inteligencji. W 2020 roku Boeing testował autonomiczne samoloty towarzyszące myśliwcom. Nazwano je „Loyal Wingman”, czyli lojalny skrzydłowy. Samoloty miały być sterowane systemem sztucznej inteligencji współpracującym z pilotem eskortowanego myśliwca, ale działałyby samodzielnie.

Według założeń „skrzydłowi” powinni wziąć na siebie pocisk wymierzony w myśliwiec. Mogłyby jednak również przenosić bomby. I teraz wyobraźmy sobie sytuację: pilot już nie musi rozważać tego, czy wypada zrzucić bombę na dane terytorium, jeśli w polu rażenia ładunku jest na przykład szkoła lub szpital. To robi sztuczna inteligencja, która nawet nie pyta pilota o zdanie.


 
Algorytmy decydują o życiu lub śmierci już dziś. W 2020 r., w czasie wojny domowej w Libii wykorzystano tureckie drony bojowe Kargu-2, które same odnajdują wyznaczony cel. W 2021 r. okazało się, że Izrael używa autonomicznych maszyn do walki z Palestyńczykami. Były to roboty wyposażone w broń maszynową, a także stada dronów sterowane sztuczną inteligencją.

Miniaturowy dron-zabójca będzie mógł zabić wybraną osobę nawet w bezpiecznym miejscu

Pójdźmy o krok dalej. Wyobraźmy sobie autonomicznego drona z systemem rozpoznawania twarzy. Dzięki niemu maszyna może precyzyjnie namierzyć swoją ofiarę. Miniaturyzacja może sprawić, że taki dron będzie miał wielkość pszczoły. Wówczas byłby w stanie zaatakować nawet wtedy, gdy jego cel przebywa w towarzystwie wielu ludzi lub jest w miejscu teoretycznie bezpiecznym.

Taki scenariusz widzimy w krótkim filmie zrealizowanym przez Future of Life Institute, którym kieruje właśnie prof. Tegmark. Widzimy urządzenie, które – wedle twórców – ma wyeliminować złych ludzi bez szkody dla dobrych.

Tylko jak określić, kto jest dobry, a kto zły? Kto i na jakiej podstawie miałby to zrobić? A co, jeśli dojdzie do usterki lub system zostanie zhakowany? Co, jeśli nie będziesz bezpieczny nawet we własnej sypialni, bo miniaturowy dron-zabójca będzie mógł wlecieć przez otwarte okno?

Najwyższy czas na prawne uregulowanie wykorzystania robotów-zabójców

Na międzynarodowym kongresie w Genewie, który odbył się w grudniu 2021 roku, po raz kolejny dyskutowano kwestie związane z bronią autonomiczną. Do stworzenia międzynarodowego prawa ograniczającego jej stosowanie przychyliła się większość państw. Wyjątkiem były trzy mocarstwa, których militarna przewaga jest niepodważalna.

Mowa o Stanach Zjednoczonych, Rosji i Chinach. Przedstawiciele USA przekonywali, że wprowadzą własne prawo regulujące kwestie broni autonomicznej. Natomiast reprezentanci Chin i Rosji odmówili komentarza.

Organizacje pozarządowe już w 2013 r. zawiązały sojusz pod nazwą Campaign to Stop Killer Robots. Pod apelem o zakaz prac nad autonomicznymi maszynami wojskowymi podpisało się wówczas wiele znanych osób ze świata nauki i technologii, m.in. prof. Stephen Hawking, twórca komputerów Macintosh Steve Wozniak czy Elon Musk.

Źródło: The Next Web.