Sztuczna inteligencja to fakt? Jak roboty robią nas w trąbę

Gruchnęła wieść, że udało się wreszcie stworzyć sztuczną inteligencję: robota, który potrafi wmówić człowiekowi, że też jest istotą ludzką. Problem w tym, że takie roboty mamy już od dawna. I oszukują ludzi na potęgę!

Robot, a właściwie program kom­puterowy, nazywa się Eugene i udaje, że jest 13-letnim chło­pakiem z Odessy. Udaje, trzeba dodać, ze sporym powodzeniem. W czerwcu w siedzibie Towarzystwa Królewskiego w Londynie zdołał przekonać co trze­ciego jurora, że jest człowiekiem. Twórcy Eugene’a ogłosili, że to przełomowy moment w hi­storii cybernetyki: wreszcie udało się robotowi przejść słynny test Turinga. Tym samym ob­wieszczono narodziny prawdziwej sztucznej inteligencji. Jednak wielu znawców tematu na­tychmiast zauważyło, że ten test Turinga jest już prze­starzały. Inni stwierdzili, że przecież sztuczną inteligencję mamy już od lat. I że robotów po­dobnych do Eugene’a jest w internecie mnóstwo.

Trzydziestu sędziów

Ale wróćmy od wspomnianej imprezy zorganizowanej przez University of Reading. Zgromadzono tam 30 sędziów-ekspertów i poproszono ich, by porozmawiali na kom­puterowym czacie z kilkoma osobami, wśród których ukryte były dwa programy-roboty. Po rozmowach eksperci mieli wskazać, którzy z interlokutorów są ludźmi, a którzy tylko ludzi udają. To klasyczny test, opracowany na podstawie tzw. gry imitacyjnej, zaproponowanej w roku 1950 przez ojca informatyki Alana Turinga.

Organizatorzy spotkania stwierdzili (na podstawie wypowiedzi samego Turinga nie­co wyrwanej z kontekstu), że aby przejść test, wystarczy nabrać 30 proc. sędziów. Poprzeczkę ustawili więc dość nisko. I rzeczywiście jedne­mu z robotów, Eugeneowi, udało się wyprowa­dzić w pole dziesięciu arbitrów. To wystarczyło, by przekroczyć próg zwycięstwa. Jednak nie­trudno zauważyć, że twórcy Eugenea zastosowali kilka tanich sztuczek. Po pierwsze program udawał 13-latka, a więc dziecko.

Po drugie po­dawał się za obcokrajowca, który angielskiego nauczył się dopiero w szkole. Takiemu rozmówcy trudno nie wybaczyć rozmaitych wpadek. Robot często gadał nie na temat, ale sędziowie myśleli wtedy: przecież to dziecko i nie zna ję­zyka. Sprytny trik – i stary. Już w roku 1972 psychiatra Kenneth Colby napisał program „Parry”, który udawał osobę cierpiącą na schi­zofrenię paranoidalną. Wielu kolegów po fachu Colbyego dało wtedy sobie wmówić, że rozmawiają za pośrednictwem komputera z praw­dziwym pacjentem. W 2006 roku psycholog Robert Epstein dał się oszukać programowi, który wcielił się w zakochaną w nim rzekomo Rosjankę. Są to przypadki podobne: najłatwiej jest komputerowi udawać osobę, co do której umysłowości mamy mniejsze wymagania (bo jest chora, młoda albo zakochana); najlepiej też, żeby nie znała zbyt dobrze języka konwersacji.

Ale nawet jeśli wybaczymy twórcom Eugene’a podstęp, i tak trudno ich osiągnięcie uznać za wyjątkowe. W roku 1991 napisany przez Jo­sepha S. Weintrauba program PC-Therapist za człowieka uznało 5 z 10 sędziów w konkursie o nagrodę Loebnera. W roku 2011 Cleverbot autorstwa Rollo Carpentera oszukał 60 proc. jurorów podobnego konkursu. Eugene wcale nie jest taki wyjątkowy – nie on pierwszy prze­szedł test Turinga. Z tej racji niektórzy znawcy tematu, np. Celeste Biever, felietonistka maga­zynu „New Scientist”, stwierdzili po prostu, że test Turinga jest przestarzały.

Alan Turing zaproponował swój słynny sprawdzian w roku 1950 – jeśli weźmiemy to pod uwagę, musimy uznać, że jest on niezwykle prekursorski. Według wytycznych testu robot powinien po pierwsze posługiwać się językiem, po drugie tak dobrze, by sprawiać wrażenie, że jest człowiekiem.

Parada oszustów

Dziś w internecie roi się od programów napisanych właśnie według tych zasad sprzed ponad 60 lat. Roboty rozpowszechnione są np. na Twitterze. Służą do prowadzenia tzw. astro-turfingu, czyli dołączają się do pozornie spon­tanicznych akcji, np. poparcia dla jakiegoś po­lityka. Aktywność robotów podczas kampanii wyborczych w USA była tak wielka, że amery­kański Departament Obrony zamówił specjalny program (BotOrNot), służący do wykrywania robocich kont na Twitterze na podstawie dyna­miki aktywności i semantyki wpisów. Sami jed­nak twórcy programów twierdzą, że BotOrNot może już być nieaktualny.

Twitter próbuje bronić się przed inwazją robotów, co okazało się niezwykle trudne. Po­kazały to badania naukowe. Brazylijsko-indyjski zespół badawczy umieścił ostatnio na Twitterze 120 profili-robotów. Tylko 30 proc. z nich zosta­ło wykrytych przez oprogramowanie zabezpie­czające. Reszta nie tylko pozostała nietknięta, ale zyskała też sporą rzeszę obserwujących – w cią­gu miesiąca było ich prawie 2000! Aktywność robotów polegała głównie na cytowaniu wpisów innych użytkowników, część z nich tworzyła też własne posty na podstawie wpisów innych, sprytnie przestawiając słowa (posłużono się tzw. łańcuchami Markowa). Eksperyment wy­kazał, że odpowiednio zaprogramowane roboty mogą być potężnym narzędziem do manipulo­wania opinią publiczną. Wykazał ponadto, jak łatwo ludzie dają się robotom oszukiwać.

 

Roboty oszuści mogą też w internecie zarabiać pieniądze. Niedawno głośno było o programie TextGirlie, który udawał flirtują­cą dziewczynę. Po uzyskaniu numeru telefonu z portalu społecznościowego robot wysyłał do ofiary SMS-a o wyraźnym zabarwieniu ero­tycznym. Jeśli ktoś odpowiedział, wirtualna dziewczyna kontynuowała flirt, aby w którymś momencie stwierdzić, że pada jej bateria w ko­mórce i czas przesiąść się na czat internetowy. Jeśli ofiara nie zachowała czujności, ani się nie obejrzała, a już była zalogowana na płatnym portalu randkowym.

Nie wiadomo, ile osób nabrało się na umizgi TextGirlie, ale wiemy, że program wysłał 15 milionów SMS-ów z propozycjami ero­tycznej przygody. Nawet jeśli w tylko jednym procencie były one skuteczne, to i tak mamy 150 tys. oszukanych spragnionych miłości dżentelmenów. Innymi słowy: robot oszust nie musi wcale zdawać testu Turinga, żeby być skutecznym i zarabiać pieniądze. Nie musi być bardzo inteligentny; wystarczy, że wykorzysta brak inteligencji u niektórych ludzi.

Lubieżny i romantyczny

Oczywiście sprawa robotów oszustów ma też drugą stronę: ludzie chcą wierzyć, że ktoś jest nimi zainteresowany. Paradoksalnie roboty, zimne, bezduszne maszyny, okazały się doskonałe w zaspokajaniu ludzkich potrzeb uwagi i miłości. Nie wszystkie są przy tym naciągaczami! O wie­lu wiadomo, że to automaty, a i tak ludzie chcą z nimi rozmawiać. Przykład: czatbot z japońskiej aplikacji Boyfriend Maker. Dwa lata temu była to najpopularniejsza darmowa aplikacja w Japonii. Pozwala ona użytkowniczce na stworzenie własnego, niepowtarzalnego wirtualnego chłopaka, a następnie na rozmowy z nim. Kiedy Boyfriend Maker osiągnął szczyt popularności, został wyco­fany z rynku. Przyczyną kłopotów był algorytm, który pozwalał robotowi na uczenie się nowych słów i zwrotów od swoich rozmówców, a także pobieranie nowego słownictwa z internetowych blogów. Po roku takiej edukacji wirtualny chłopak na pytanie „jak będzie wyglądał nasz tort wesel­ny?” odpowiadał np.: „to będzie dobry seks, będę jechał na tobie, potem ty na mnie, aż zaczniesz gryźć poduszkę”. Ponieważ aplikacja oznaczona była jako dobra również dla dzieci od czterech lat, musiała zostać wycofana – wróciła dopiero po wprowadzeniu odpowiednich zabezpieczeń.

O robocie z aplikacji Boyfriend Maker warto wspomnieć nie tylko z powodu powyższej aneg­doty. Jest to też interesujący przykład, pokazujący że program wcale nie musi udawać człowieka, żeby człowiek chciał z nim wchodzić w bliskie reakcje. Japoński wirtualny chłopak w rozmo­wach często przyznaje, że nie jest prawdziwym człowiekiem, choć też nie twierdzi, że jest pro­gramem komputerowym: „nie mam rąk ani nóg, ani tułowia, ale czuję się dobrze w swoim ciele” – mówi na przykład. Twórcy aplikacji określają stworzony przez nich byt jako dziwaczny, trochę ludzki, trochę nie. Widzimy tu, że sztuczna inte­ligencja nie musi iść w kierunku wyznaczonym przez test Turinga, czyli imitacji umysłowości ludzkiej. Jesteśmy gotowi wchodzić w relację z bytami nieludzkimi, choć trochę rozumiejący­mi nas, tak jak wchodzimy np. w relacje z psami.

Odkurzacz – to brzmi dumnie!

W tym właśnie kierunku idą np. badania naukowców z Uniwersytetu w Hokkaido. Jed­nym z członków tamtejszego zespołu jest Polak dr Rafał Rzepka. „Nie ma sensu, żeby np. odku­rzacz udawał trzynastolatka z Odessy” – mówi „Focusowi” dr Rzepka. „Według mnie bar­dziej imponujące byłoby, gdyby odkurzacz był »sobą« i zamiast zmyślonych historii opisywał prosty świat, który zna. W moim laboratorium pracujemy nad takim urządzeniem. Nie trzeba mu mówić »posprzątaj«, bo rozumie również zawoalowane polecenia typu »ależ tu brudno!”, a na »wymyj wannę« odpowiada »Roomby tego nie robią«, gdyż potrafi wywnioskować z wpi­sów na blogach czy Twitterze, że roboty tego typu nie są angażowane w szorowanie łazienek. Moim zdaniem właśnie w ten sposób maszyny zdadzą swoisty test Turinga – będą przyznawać się do braku doświadczenia, będą wiedzieć, do czego są zdolne i jaka jest ich rola. Będą w tym tak naturalne, że będziemy je traktować jak zwierzęta mówiące ludzkim głosem i zapomnimy, że to niebiologiczna materia”.

Wygląda więc na to, że w przyszłości świat wypełnią dwa rodzaje robotów. Pierwsze, pod­stępne, będą udawać ludzi. Drugie, prostolinij­ne, będą po prostu wypełniać swoje zadania. Możliwe, że skończy się to tak, że bardziej bę­dziemy ufać maszynom, niźli komuś, kto podaje się za człowieka – bo przecież może się okazać chytrym robotem.