Jak robot radzi sobie z problemami etycznymi?

Zbadał to prof. Alan Winfield z Bristol Robotics Laboratory w Wielkiej Brytanii w serii ciekawych eksperymentów.

W pierwszej wersji doświadczenia brały udział dwa proste roboty – jeden testowany i drugi, który wystąpił w roli człowieka. „Człowiek” zmierzał w stronę dziury, w której czekałaby go zguba, chyba że uratowałby go robot. Robot z tym zadaniem radził sobie świetnie: za każdym razem podchodził do „człowieka” i lekko go popychał, by ten zboczył z drogi wiodącej ku pułapce. W ten sposób wypełnił pierwsze z trzech praw robotów sformułowanych przez Isaaca Asimova w opowiadaniu „Zabawa w berka” z 1942 roku – według tego prawa robot nie może skrzywdzić człowieka ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.

Problem zaczął się, gdy Winfield dołożył drugiego „człowieka”, zmuszając robota do decydowania, kogo ratować. Na 33 testy w 16 robot pomógł jednemu „człowiekowi”, 3 razy udało mu się ocalić obu, jednak w 14 przypadkach wahał się tak długo, że pozwolił, by obaj „ludzie” wpadli do dziury. To nie są czysto akademickie zabawy, ponieważ robotów w naszym życiu jest coraz więcej i zagadnienia etyczne dotyczące ich działań stają się istotne. Najbardziej przemawiający do wyobraźni przykład to samochód bez kierowcy. Czy – gdy pojawia się niebezpieczeństwo wypadku – automat powinien ratować swoich pasażerów za wszelką cenę, nawet kosztem życia przechodniów?

Prof. Winfield roboty nazywa „etycznymi zombi”, które nie mogą postąpić inaczej, niż postępują. Funkcjonują etycznie zgodnie z zaprogramowanym kodeksem działania, ale nie rozumieją, dlaczego właśnie tak.

Czytaj więcej: