Sztuczne inteligencje uczą się, a ich wnioski zaskakują nawet twórców. Są też obawy

Czy maszyna może wymyślać, albo wykonywać czynności, których nie zaprogramował jej twórca? Proces uczenia się sztucznych inteligencji jest fascynujący, ale podnoszą się też głosy pełne obaw.

Niedawno Facebook musiał wyłączyć wykorzystywaną przez siebie sztuczną inteligencję bo stworzyła i posługiwała się językiem niezrozumiałym dla ludzi. Rok temu Microsoft wyłączył “Tay” – cybernetyczną nastolatkę, która po 24 godzinach w mediach społecznościowych stała się wulgarną i kipiącą nienawiścią miłośniczką teorii spiskowych, seksu i Adolfa Hitlera. Także w ubiegłym roku AlphaGo pokonał najlepszego gracza świata w go, słynną logiczną grę z Chin, wciąż podnosząc swoje umiejętności podczas rozgrywki. Sztuczne inteligencje to już od dawna nie fikcja, a rzeczywiste narzędzia, które potrafią zadziwić nie tylko tych, którzy ich używają, ale także własnych “rodziców”, czyli programistów.

– Sztuczna inteligencja ma wiele definicji i według jednych badaczy istnieje, a według innych nie – tłumaczy Aleksandra Przegalińska, badaczka nowych technologii, w szczególności sztucznych inteligencji, z Akademii Leona Koźmińskiego oraz Massachusetts Institute of Technology. Stworzenie sztucznego logicznego umysłu trwa już przeszło 50 lat, opiera się głównie na tworzeniu programów komputerowych oraz maszyn, które mogłyby się same uczyć, wyciągać logiczne wnioski, przetwarzać informacje, podejmować decyzje.

Jesteśmy juz w momencie gdy komputer może z nami porozmawiać, może użyć głosu i korzystać z języka, którym i my się posługujemy. Jeśli pamiętacie słynne zdanie “Obawiam się, że nie mogę Ci na to pozwolić, Dave” z “Odysei kosmicznej”, gdy HAL zbuntował się przeciwko ludziom to nietrudno dojść do wniosku, że taka SI mogłaby przekonać ludzi o własnej świadomości. Jednak Przegalińska uspokaja, póki co daleko nam do filmowych scenariuszy.

– To my programujemy, tutaj nie ma świadomości – tłumaczy badaczka – To, że program może odpowiedzieć trafnie nam w języku naturalnym to jeszcze nie jest podmiotowe “ja”. Maszyna może oszukać, że jest jak człowiek, ale to nijak się nie ma do świadomej sztucznej inteligencji.

Tu jednak pojawia się pytanie: skoro wciąż to my mamy kontrolę i decydujemy o działaniach SI to dlaczego może ona robić rzeczy, których nie przewidzieliśmy? Odpowiedzią jest proces nauki. To zagadnienie jest o tyle ciekawe, że badając jak uczą się maszyny i programy naukowcy powoli rozplątują zagadki także ludzkiego umysłu.

 

SI uczy się samo

Obecnie o wiele bardziej zajmujące dla badaczy nie jest dążenie do stworzenia świadomej maszyny, a zbadanie tego jak się ona uczy. Uczenie maszynowe to termin, który jest już w obiegu, a naukowcy śledzą z uwagą jak ich własne twory przetwarzają informacje. Bo mimo tego, że to przecież człowiek na początku wpisał kod czy stworzył mechanizm – ten zaczyna się uczyć i sam szuka optymalnych dla siebie rozwiążań, swoim trybem.

– Uczenie maszynowe to trenowanie ich do tego, żeby były inteligentne – tłumaczy Przegalińska – tego terminu używa się obecnie znacznie częściej niż “sztuczna inteligencja”.

Takie uczące się maszyny są już stałym elementem naszego życia i przyjmujemy je często bezrefleksyjnie. Algorytm dobierający reklamy do tego co wyszukujesz w internecie? Aplikacja sugerująca piosenki po wcześniejszej analizie przesłuchanych utworów? Wyszukiwarka podpowiadająca, które filmy lub zdjęcia mogą ci się spodobać? To właśnie uczące się maszyny.

Jednym z najgłośniejszych przykładów jest zeszłoroczny tryumf AlphaGo – programu, który pokonał najlepszego gracza w go na świecie. Twórcy AlphaGo sami przyznawali, że nie do końca wiedzą w jaki sposób doszedł on do swoich wniosków.

– To nauczanie maszynowe bez ludzkiego nadzoru – mówi Przegalińska – maszyna musi sama znajdywać najlepsze rozwiązania i potem je testuje.

AlphaGo sam ze sobą rozgrywał tysiące partii wypracowując metodę. Jego ruchy zaskakiwały przeciwnika, twórców i kibiców. Dzięki temu, że proces jego uczenia się nie podlegał nadzorowi ludzkiemu mógł samodzielnie dobierać najskuteczniejsze ruchy. Maszyny się uniezależniają, a ich nauka może prowadzić do czegoś, co dla ludzi będzie innowacją. Tu przykładem jest historia SI Facebooka i jej metakodu do porozumiewania się. Ten metakod miał być idealny dla niej, a nie dla ludzkich operatorów.

Uczenie maszynowe jest już powszechne i bardzo rozwinięte. Potencjalnych rozwiązań jest jeszcze więcej: od analiz rynkowych po kreatywne rozwiązywanie problemów. To, co szokuje to moment gdy maszyny uczą się robić coś, co wydawało się dostępne jedynie ludziom – jak choćby tworzenie języka komunikacji.

– A przecież to nie jest zaskakujące, zwierzęta tworzą także swoje języki – mówi Przegalińska – ludzie obawiają się tego, co może się stać, a nie tego co jest. Boją się, że ten metakod może być użyty przeciw nim.

 

Ludzkość zaczyna się bać

Do tej pory najmocniej brzmiącym ostrzeżeniem przed zagrożeniami ze strony SI (oczywiście z wyjątkiem niezliczonej liczby filmów, książek i komiksów sf, którym należałoby się osobne opracowanie naukowe) wybrzmiał ze strony Stephena Hawkinga. Genialny fizyk teoretyk stwierdził w 2014 roku, w rozmowie z BBC, że prace nad tym projektem mogą stać się początkiem końca ludzkości. 

Tu można oczywiście postawić kropkę i dalej straszyć się wizjami rodem z sagi filmowej “Terminator”. Projektu SI nie da się już powstrzymać. Patrząc na postępy prac nad nimi i z nimi widać, że choć jeszcze nie ma w niej jeszcze jaźni, pojawia się samodzielność. Ta samodzielność właśnie jest źródłem obaw. 

– Nikt nie jest w stanie zagwarantować tego, że ten projekt nigdy nie wymknie się spod kontroli, albo nie zostanie użyty do złych celów – zastrzega ekspertka i dodaje, że obecny rozwój SI stawia ją raczej wśród narzędzi, które mogą być użyte w różny sposób. Do momentu, gdy SI sama stwierdzi, że będzie robić coś wbrew ludziom mamy jeszcze bardzo daleko, o ile w ogóle kiedykolwiek taki scenariusz się ma zrealizować.

– Jedyne co możemy, to szukać sposobów by ten projekt był jak najbardziej czytelny i służył w dobrych celach, bo na pewno nie można go już zatrzymać – dodaje. 

W identycznym tonie wypowiadał się już we wrześniu 1995 roku futurolog, wizjoner, a przede wszystkim pisarz – Stanisław Lem, który w felietonie w czasopiśmie Znak zwraca uwagę na dwoistość konsekwencji użycia SI – “Każda technologia o efektywnej mocy sprawczej jest potencjalnie w awersie zbawienna, w rewersie – niebezpieczna. Tak było i sądzę, że tak będzie. Komputer programowany na rzecz „dobra dla ludzi” też, jako zniewalający do „algorytmu dobrych zachowań”, może powodować wiele nieszczęść.”

Jak zatem traktować przypadek samouczącego się AlphaGo, zbuntowanej “Tay” czy Facebookowych botów?

– Ludzie mając coś, czego sztuczna inteligencja nigdy nie będzie miała: nieprzewidywalność, nielogiczność, emocje – uspokaja Norbert Biedrzycki, były prezes grupy Atos Polska zajmującej się technologiami informatycznymi.  

 

Szkoła dla SI

Głównym polem zainteresowania naukowców powinno być obecnie według badaczki właśnie nauczanie maszynowe bez ludzkiego nadzoru. Tutaj ważne są dwa bardzo istotne czynniki: sam proces nauki oraz to z czego ona się uczy.

Przypadek “Tay”, która z portali społecznościowych nauczyła się wulgarnie mówić i podziwiać wodza III Rzeszy pokazuje jak ważne są źródła.

– Nikt pewnie nie zdziwiłby się, gdyby czterolatek po piątej wizycie w więzieniu zaczął kląć – podsumowuje dr Radosław Nielek z Polsko-Japońskiej Akademii Technik Komputerowych – Czemu więc dziwi nas to, że źle zaczęły zachowywać się algorytmy sztucznej inteligencji?

Zatem wyzwaniem przed tworzącymi sztuczne inteligencje będzie przede wszystkim dobór źródeł i miejsc, z których mają czerpać wiedzę. W przypadku SI stworzonych do grania w planszową grę pole jest bezpiecznie ograniczone, ale jeśli kiedykolwiek będziemy chcieli zapędzić je do rozwiązywania poważnych dylematów ekonomicznych, społecznych, a może nawet moralnych – dobór źródeł będzie kluczowy.

– Nauczyciel, czy trener sztucznej inteligencji to jeden z tych zawodów, który ma przed sobą przyszłość – dodaje dr Nielek – Kto wie, może za jakiś czas doczekamy się nawet szkół dla systemów sztucznej inteligencji. Ciekawe czy na przerwach algorytmy też będą grały w piłkę na szkolnym korytarzu.

Cała nadzieja w nauczycielach, by SI grały w piłkę, a nie na przykład bawiły się w wojnę.