Łukasz Załuski: Zamieniłaby pani swoje auto na autonomiczne?

Aleksandra Przegalińska: Zdecydowanie nie. Naprawdę bardzo lubię prowadzić samochód. 

Podobnie jak wielu kierowców, dla których prowadzenie wcale nie jest przykrym obowiązkiem. Czy ta przyjemność niebawem naprawdę odejdzie do lamusa?

Motoryzacja autonomiczna jest w pewnym sensie nieuchronna. Należy jednak pamiętać, jak kompleksowe jest to zjawisko. Czym innym jest transport, np. dowożenie dzieci do szkoły, turystyka czy ogólnie pojęta logistyka, a zupełnie czym innym indywidualna chęć posiadania samochodu, aby po prostu nim się przejechać. 

Obronimy ten luksus?

Dopóki mamy zdolność kierowania światem i naszym życiem, i nie oddamy tego przywileju maszynom – co moim zdaniem nie stanie się szybko – powinniśmy mieć prawo decyzji, czy chcemy być kierowcami, czy może wolimy oddać tę robotę sztucznej inteligencji. Myślę, że człowieka nie można tej sprawczości – a właściwie iluzji sprawczości – pozbawiać. Nawet jeżeli samochód będzie miał wiele inteligentnych elementów, i tak wierzę, że ostatecznie każdy sam wybierze najlepsze dla siebie rozwiązanie. 

Nie wygra chociażby ludzkie lenistwo?

Nie, utopią jest myślenie, że w każdej sytuacji, kiedy maszyna może przejąć obowiązki ludzi, my je maszynie przekażemy. 

Wciąż wykluczające się raporty różnych instytucji nie dają nam jasnej odpowiedzi co do przyszłości pracy. Jedne wskazują, że będziemy dosłownie przytłoczeni obowiązkami wynikającymi z rozbudowanej technologii, inne straszą, że zniknie większość tradycyjnych zawodów. Dokąd pani zdaniem zmierza zawód profesjonalnego kierowcy przewożącego osoby czy towar?

Rzeczywiście w przypadku zawodowych kierowców może okazać się, że ich praca nie będzie potrzebna. Największym zagrożeniem będzie najpewniej już rozwijająca się koncepcja samochodu jako usługi. Jeżeli pojazd zostanie zaprogramowany, aby przewozić ludzi pod wskazany adres lub dostarczać towar z jednego punktu do drugiego i będzie się to odbywać przy pomocy zaawansowanej autonomiczności, praca człowieka najpewniej okaże się zbędna. 

Samochody autonomiczne to na pewno jeden z przykładów praktycznego zastosowania sztucznej inteligencji. Czy możemy jednak dzisiaj z pewnością powiedzieć, że AI już istnieje? Jako sztuczną inteligencję mam na myśli proces uczenia się maszyn, który obserwujemy i być może powoli przestajemy nad nim panować?

Wiele zależy od definicji. Można oczywiście powiedzieć, że sztuczna inteligencja to pojęcie zawierające w sobie wiele różnych komponentów: przetwarzanie języka naturalnego, syntezę mowy, uczenie maszynowe w różnych jego wersjach, robotykę i właśnie interakcję człowieka z maszyną. To bardzo rozległa gałąź wiedzy, którą ktoś kiedyś nazwał „sztuczną inteligencją”. Co to jednak właściwie znaczy i dlaczego „sztuczna”? Przecież taki rodzaj inteligencji również został stworzony, trudno więc o nim mówić, że jest sztuczny. O wiele bardziej przemawia do mnie termin designed intelligence, czyli inteligencja stworzona.

Pojęcie sztuczności jest o tyle problematyczne, że granica pomiędzy tym co sztuczne a tym co biologiczne wydaje się coraz bardziej płynna...

Oczywiście. Dlatego ja wolę używać pojęcia „uczenie maszynowe”. Wydaje mi się, że lepiej oddaje ono istotę rzeczy. Jeśli więc pyta pan, czy istnieją systemy, które potrafią przetwarzać informacje i adaptować się do zmieniającego otoczenia – bo dla mnie inteligencja to właśnie zdolność do adaptacji – naukowcy są zgodni, że tak. Najlepszym przykładem jest program AlphaGo, który w słynnym pojedynku pokonał zawodowego gracza w chińskiej grze w go. Wielu ludzi myśli jednak o sztucznej inteligencji, która miałaby być równa ludzkiej w aspekcie emocjonalnym i cielesnym. Taką inteligencją jeszcze nie dysponujemy i szybko się jej nie doczekamy.

A jednak mówi pani, że inteligencja jest silniejsza od tego, kto jej używa. Czy naukowcy choć w niewielkim stopniu podzielają obawy fantastów, że maszyny poddane procesowi głębokiego uczenia mogą się wyemancypować i – niczym filmowy potwór Frankenstein – w jakiś sposób zagrozić ludziom?

Naukowcy są zdecydowanie bardziej zachowawczy i starają się nie siać paniki. Mam wrażenie, że społeczność zajmująca się tzw. data science oraz uczeniem maszynowym, czyli szeroko pojętą sztuczną inteligencją i robotyką, jest świadoma, w jakim momencie się znajdujemy. Lęk przed buntem maszyn jest więc mniejszy niż ten ogólnospołeczny – podkręcany przez popkulturę. Hollywood lubi straszyć mszczącymi się robotami, bo to po prostu bardzo atrakcyjny temat na film. 

Czyli na razie możemy spać spokojnie?

Oczywiście. To co dzisiaj postrzegamy jako jakąś formę sztucznej inteligencji, absolutnie nie jest zdolne do emancypacji. Maszyny wciąż są nieświadome, pozbawione woli i jakiejkolwiek samodzielności działania. Nic też nie wskazuje, aby miało się to szybko zmienić. 

Ile zatem mamy czasu, aby się przygotować?

Bardzo dużo. Moim zdaniem takie rzeczy jak świadomość wytwarzają się bardzo późno w procesie ewolucyjnym. Opowieści o nieodległej osobliwości, czyli tym momencie w przyszłym rozwoju cywilizacji, w którym postęp techniczny stanie się tak szybki, że wszelkie ludzkie przewidywania stracą na aktualności, odłożyłabym między bajki. Na pewno nie stanie się to za 
20–30 lat, jak wieszczy chociażby amerykański futurolog Ray Kurzweil. Ja go oczywiście rozumiem, sama chciałabym dożyć tych czasów i przekonać się, jak będzie wyglądał świat prawdziwych „Jetsonów”. 

Jeśli nie w XXI wieku, to kiedy?

Moim zdaniem nie prędzej niż za jakieś tysiąc lat.