Sztuczna inteligencja to fakt? Jak roboty robią nas w trąbę

Łukasz Kaniewski

Niezależny dziennikarz naukowy.

Witający gości RusCyborg był jednym z bohaterów wystawy „Bal robotów” w moskiewskim Artplay Design Center, na której zaprezentowano 40 naj­bardziej zaawansowanych robotów na świecie. Furorę zrobili też: robot Tytan występujący z gwiazdami Hollywood; cytujący literaturę robot Puszkin, malujący portrety robot Paul oraz robot Tespian, który rozmawia, śpiewa, śmieje się i płacze. BE&W

Gruchnęła wieść, że udało się wreszcie stworzyć sztuczną inteligencję: robota, który potrafi wmówić człowiekowi, że też jest istotą ludzką. Problem w tym, że takie roboty mamy już od dawna. I oszukują ludzi na potęgę!

Robot, a właściwie program kom­puterowy, nazywa się Eugene i udaje, że jest 13-letnim chło­pakiem z Odessy. Udaje, trzeba dodać, ze sporym powodzeniem. W czerwcu w siedzibie Towarzystwa Królewskiego w Londynie zdołał przekonać co trze­ciego jurora, że jest człowiekiem. Twórcy Eugene’a ogłosili, że to przełomowy moment w hi­storii cybernetyki: wreszcie udało się robotowi przejść słynny test Turinga. Tym samym ob­wieszczono narodziny prawdziwej sztucznej inteligencji. Jednak wielu znawców tematu na­tychmiast zauważyło, że ten test Turinga jest już prze­starzały. Inni stwierdzili, że przecież sztuczną inteligencję mamy już od lat. I że robotów po­dobnych do Eugene’a jest w internecie mnóstwo.

Trzydziestu sędziów

Ale wróćmy od wspomnianej imprezy zorganizowanej przez University of Reading. Zgromadzono tam 30 sędziów-ekspertów i poproszono ich, by porozmawiali na kom­puterowym czacie z kilkoma osobami, wśród których ukryte były dwa programy-roboty. Po rozmowach eksperci mieli wskazać, którzy z interlokutorów są ludźmi, a którzy tylko ludzi udają. To klasyczny test, opracowany na podstawie tzw. gry imitacyjnej, zaproponowanej w roku 1950 przez ojca informatyki Alana Turinga.

Organizatorzy spotkania stwierdzili (na podstawie wypowiedzi samego Turinga nie­co wyrwanej z kontekstu), że aby przejść test, wystarczy nabrać 30 proc. sędziów. Poprzeczkę ustawili więc dość nisko. I rzeczywiście jedne­mu z robotów, Eugeneowi, udało się wyprowa­dzić w pole dziesięciu arbitrów. To wystarczyło, by przekroczyć próg zwycięstwa. Jednak nie­trudno zauważyć, że twórcy Eugenea zastosowali kilka tanich sztuczek. Po pierwsze program udawał 13-latka, a więc dziecko.

Po drugie po­dawał się za obcokrajowca, który angielskiego nauczył się dopiero w szkole. Takiemu rozmówcy trudno nie wybaczyć rozmaitych wpadek. Robot często gadał nie na temat, ale sędziowie myśleli wtedy: przecież to dziecko i nie zna ję­zyka. Sprytny trik - i stary. Już w roku 1972 psychiatra Kenneth Colby napisał program „Parry”, który udawał osobę cierpiącą na schi­zofrenię paranoidalną. Wielu kolegów po fachu Colbyego dało wtedy sobie wmówić, że rozmawiają za pośrednictwem komputera z praw­dziwym pacjentem. W 2006 roku psycholog Robert Epstein dał się oszukać programowi, który wcielił się w zakochaną w nim rzekomo Rosjankę. Są to przypadki podobne: najłatwiej jest komputerowi udawać osobę, co do której umysłowości mamy mniejsze wymagania (bo jest chora, młoda albo zakochana); najlepiej też, żeby nie znała zbyt dobrze języka konwersacji.

Ale nawet jeśli wybaczymy twórcom Eugene'a podstęp, i tak trudno ich osiągnięcie uznać za wyjątkowe. W roku 1991 napisany przez Jo­sepha S. Weintrauba program PC-Therapist za człowieka uznało 5 z 10 sędziów w konkursie o nagrodę Loebnera. W roku 2011 Cleverbot autorstwa Rollo Carpentera oszukał 60 proc. jurorów podobnego konkursu. Eugene wcale nie jest taki wyjątkowy - nie on pierwszy prze­szedł test Turinga. Z tej racji niektórzy znawcy tematu, np. Celeste Biever, felietonistka maga­zynu „New Scientist”, stwierdzili po prostu, że test Turinga jest przestarzały.

Alan Turing zaproponował swój słynny sprawdzian w roku 1950 - jeśli weźmiemy to pod uwagę, musimy uznać, że jest on niezwykle prekursorski. Według wytycznych testu robot powinien po pierwsze posługiwać się językiem, po drugie tak dobrze, by sprawiać wrażenie, że jest człowiekiem.

Parada oszustów

Dziś w internecie roi się od programów napisanych właśnie według tych zasad sprzed ponad 60 lat. Roboty rozpowszechnione są np. na Twitterze. Służą do prowadzenia tzw. astro-turfingu, czyli dołączają się do pozornie spon­tanicznych akcji, np. poparcia dla jakiegoś po­lityka. Aktywność robotów podczas kampanii wyborczych w USA była tak wielka, że amery­kański Departament Obrony zamówił specjalny program (BotOrNot), służący do wykrywania robocich kont na Twitterze na podstawie dyna­miki aktywności i semantyki wpisów. Sami jed­nak twórcy programów twierdzą, że BotOrNot może już być nieaktualny.

Twitter próbuje bronić się przed inwazją robotów, co okazało się niezwykle trudne. Po­kazały to badania naukowe. Brazylijsko-indyjski zespół badawczy umieścił ostatnio na Twitterze 120 profili-robotów. Tylko 30 proc. z nich zosta­ło wykrytych przez oprogramowanie zabezpie­czające. Reszta nie tylko pozostała nietknięta, ale zyskała też sporą rzeszę obserwujących - w cią­gu miesiąca było ich prawie 2000! Aktywność robotów polegała głównie na cytowaniu wpisów innych użytkowników, część z nich tworzyła też własne posty na podstawie wpisów innych, sprytnie przestawiając słowa (posłużono się tzw. łańcuchami Markowa). Eksperyment wy­kazał, że odpowiednio zaprogramowane roboty mogą być potężnym narzędziem do manipulo­wania opinią publiczną. Wykazał ponadto, jak łatwo ludzie dają się robotom oszukiwać.

  • Kategoria: Technika
  • Data:
  • Źródło:
    • Focus 8/2014
  • c
Komentarze