
Philip Nitschke, twórca głośnej kapsuły do wspomaganego samobójstwa Sarco, ogłosił, że to właśnie algorytm AI będzie decydował o tym, czy dany człowiek jest poczytalny i gotowy na podjęcie decyzji o zakończeniu życia. Ta cyfrowa „bramka” staje się sędzią w jednej z najtrudniejszych i najbardziej nieodwracalnych decyzji, jakie może podjąć człowiek.
24 godziny na śmierć. Jak działa algorytm Sarco?
Na początek trochę wyjaśnień. Kapsuła Sarco to urządzenie wydrukowane w 3D, które ma umożliwiać odejście bez udziału lekarza czy farmakologii. Procedura wygląda następująco: użytkownik wchodzi do środka i musi przejść test psychiatryczny oparty na sztucznej inteligencji. Jeśli AI uzna, że dana osoba jest świadoma swoich czynów i posiada sprawność umysłową do podjęcia takiej decyzji, system odblokowuje urządzenie.
Od tego momentu użytkownik ma dokładnie 24 godziny na naciśnięcie przycisku uwalniającego azot. Gaz ten błyskawicznie obniża poziom tlenu w szczelnie zamkniętej kapsule, co prowadzi do utraty przytomności i zgonu w ciągu kilku minut. Jeśli w ciągu doby osoba nie podejmie działania, proces zostaje automatycznie przerwany i całą procedurę, włącznie z testem AI, trzeba zaczynać od nowa. Nitschke argumentuje, że to najbardziej autonomiczna droga do godnej śmierci, ale krytycy są przerażeni faktem, że ostateczną odpowiedzialność za ocenę stanu psychicznego człowieka zrzucono na oprogramowanie.
Czytaj też: Robotyczna dłoń jak z rodziny Addamsów. EPFL pokazuje swoje nowe dzieło
Pierwsze realne użycie Sarco miało miejsce w 2024 roku w Szwajcarii, gdzie 64-letnia Amerykanka cierpiąca na ciężkie powikłania immunologiczne zakończyła swoje życie. Wtedy jednak system AI nie był jeszcze gotowy – kobietę zbadał tradycyjny psychiatra z Holandii. To pokazuje, że czynnik ludzki był dostępny i skuteczny, po co więc zastępować człowieka AI?
Sprawa Sarco to nie tylko dylematy etyczne, ale i poważne problemy prawne
Po śmierci wspomnianej kobiety, szwajcarskie służby aresztowały dr. Floriana Willeta, znanego zwolennika wspomaganego samobójstwa, który był obecny na miejscu. Choć prawo w Szwajcarii dopuszcza taką procedurę, stawia twardy warunek: śmierć musi nastąpić bez „pomocy zewnętrznej”, a pomagający nie może mieć żadnych egoistycznych pobudek.
Czytaj też: Robotyczne psy ruszają na ratunek. AI zmienia oblicze straży pożarnej
Aresztowanie i stres związany z procesem odbiły się tragicznie na psychice Willeta. W 2025 roku sam zdecydował się na wspomagane samobójstwo w Niemczech. Nie wiadomo, czy on sam, będąc w traumie po pobycie w areszcie, przechodził testy nowego systemu AI przed śmiercią. Mimo tych kontrowersji, Philip Nitschke nie zamierza się wycofywać. Najnowsze projekty Sarco przewidują model „Double Dutch”, przeznaczony dla par, które chcą odejść wspólnie. W tym scenariuszu AI musiałoby oceniać dwoje ludzi jednocześnie w połączonej kapsule.
Czytaj też: Airbus stawia na chińskie roboty. Humanoid Walker S2 wchodzi na linie montażowe samolotów
Nikogo nie zdziwi fakt, że wprowadzenie AI do procesu decydowania o zakończeniu życia budzi ogromny opór specjalistów. Psychiatrzy i etycy ostrzegają, że sprowadzenie niezwykle złożonej, osobistej i tragicznej sytuacji człowieka do zestawu technicznych pól do odhaczenia w aplikacji jest skrajnie niebezpieczne, bo przecież algorytmy nie są nieomylne, a w tym wypadku, taka pomyłka będzie tą ostatnią. Prawda jest taka, że logistyka nie wymaga usuwania ludzi z tego procesu – przypadki użycia kapsuły są na tyle rzadkie, że udział lekarza nie stanowi problemu technicznego. Zastąpienie ludzkiego osądu algorytmem w kwestii tak ostatecznej jak śmierć wydaje się być najbardziej niepokojącym zastosowaniem technologii, jakie widzieliśmy w ostatnich latach.