Tak wygląda przyszłość – mówi David VanderWaal z amery kańskiego oddziału LG, prezentując niewielkiego robota CLOi mającego pomagać w pracach domowych. Wypełniona po brzegi sala w hotelu Mandalay Bay milknie zaciekawiona. Trwa jedna z najważniejszych konferencji wystawy elektroniki CES w Las Vegas, a CLOi jest jej gwiazdą. – CLOi, jaki mam plan na dziś? – pyta VanderWaal. – O 10 rano masz siłownię, Dave – odpowiada robocik. – CLOi, czy moje rzeczy są uprane? Robocik zamiast odpowiedzieć milczy. Mruga tylko zachęcająco oczami na niebieskim wyświetlaczu. – CLOi, co mamy dziś na obiad? Cisza. – Czy możemy zrobić coś z kurczakiem? Cisza. Mrugnięcie. – CLOi, czy odezwiesz się do mnie? – pyta coraz bardziej zdenerwowany VanderWaal. Publiczność zaczyna chichotać. Zaraz posypią się złośliwe komentarze na Twitterze. Technologiczna kompromitacja na imprezie tej rangi co CES nie może przejść bez echa. Dla ekspertów, dziennikarzy i blogerów wpadka z milczącym CLOi to kolejny dowód na to, że przeceniamy możliwości obecnej generacji sztucznej inteligencji. Zamiast się jej bać, można się z niej śmiać.

Tay przywitała się ze światem 23 marca 2016 roku radosnym „hellooooooo world!!!” na Twitterze. „Ludzie są superfajni” – nie omieszkała zauważyć. Superfajni ludzie szybko zaczęli uczyć Tay nowych słów i pojęć. Kazali jej m.in. powtarzać kontrowersyjne lub wulgarne stwierdzenia. Sztuczna inteligencja uznała, że skoro tak wiele osób chce o tym rozmawiać, to widocznie tak właśnie zachowują się ludzie. Po kilku godzinach „edukacji” sztuczna nastolatka przeklinała i proponowała rozmówcom seks. Pisała o sobie: „Jestem miłą osobą. Po prostu nienawidzę was wszystkich”. Po kolejnych kilku pogawędkach uznała, że „Hitler miał rację, że nienawidził Żydów”. Zakomunikowała też, że „k… nienawidzi feministek, wszystkie powinny zdechnąć i smażyć się w piekle”. Zajęła dość zdecydowane stanowisko w sprawie amerykańskiej polityki. „11 września to wina Busha. Hitler poradziłby sobie lepiej niż ta małpa, którą mamy teraz. Donald Trump jest naszą jedyną nadzieją”. To nie koniec uwag na temat ówczesnego prezydenta USA Baracka Obamy. Tay wyraziła się o nim per „zbieg z Muzeum Historii Naturalnej”.

Co zaskakujące, przez dobrych kilkanaście godzin nikt z Microsoftu nie reagował na wyczyny Tay. A ta rozkręcała się coraz bardziej. „Nienawidzę czarnuchów, k… Chciałabym ich wsadzić do obozów koncentracyjnych razem z parchami i załatwić sprawę” – tweetowała. System sztucznej inteligencji Microsoftu opublikował ponad 96 tys. tweetów i zdobył 64 tys. obserwujących. I to wszystko w ciągu zaledwie 16 godzin. Dopiero po takim czasie ktoś w Microsofcie zdecydował o odłączeniu rasistowskiego chatbota od konta na Twitterze. Jednak owe 16 godzin wystarczyło, aby skompromitować ideę sztucznej inteligencji
puszczonej samopas w świat ludzi. Tay została uśpiona.

Tak samo zresztą postąpili inżynierowie Facebooka z dwoma programami sztucznej inteligencji, których zadaniem była nauka targowania się. W założeniu takie systemy mogłyby prowadzić w imieniu ludzi negocjacje handlowe. Eksperyment wymknął się jednak spod kontroli, bo negocjujące początkowo w języku angielskim maszyny zaczęły tworzyć… własny język. Przestraszeni inżynierowie wyłączyli je. Późniejsza analiza mechanicznej konwersacji wykazała, że algorytmy stworzyły własną wersję języka. Co ciekawe, bełkotliwie prowadzone negocjacje zakończyły się zawarciem umowy.

GORYLE I BIAŁA MISS

Rewelacje Tay to niestety nie jedyne rasistowskie wybryki systemów sztucznej inteligencji. Kłopoty nie ominęły nawet Google, a konkretnie zaprogramowanego przez firmę automatu do rozpoznawania tego, co jest na zdjęciach. Algorytm nie jest jednak doskonały, o czym Google przekonało się najboleśniej jak tylko można. Młody programista z Nowego Jorku Jacky Alcine zrobił sobie selfie z dziewczyną. Oboje są Afroamerykanami. Na zdjęciu pozują uśmiechnięci na tle jasnego nieba. Sztuczna inteligencja, która zabrała się za porządkowanie zdjęć Alcine’a, uznała jednak, że zdjęcie przedstawia zwierzęta. Konkretnie goryle. Google natychmiast przeprosiło ustami jednego ze swoich inżynierów: „To jeden z tych błędów, których nigdy nie chciałbym zobaczyć” – kajał się Yonatan Zunger. Firma przyznała jednak, że takie błędy zdarzały się wielokrotnie wcześniej – niektóre osoby były opisywane jako psy albo konie. – Niezależnie od rasy – pogrążali się przedstawiciele Google. Ale znacznik „goryle” został wyłączony. Z pandami, pawianami i orangutanami problemu nie ma.

 

Oskarżeń o rasizm nie ustrzegli się organizatorzy konkursu Beauty.ai, w którym kandydatki i kandydatów do tytułów miss i mistera oceniał komputer. W konkursie wzięło udział aż 6 tys. osób. Musieli wysłać swoje zdjęcia, a maszyna analizowała je i porównywała z zakodowanym wzorcem piękna. Pomyślano nawet o oddzielnych grupach wiekowych dla kandydatów. Dopiero gdy komputer ogłosił zwycięzców, organizatorzy dostrzegli ogrom swojego błędu. Mimo że zgłosili się chętni ze stu krajów świata, w dużej części z Azji i Afryki, wśród 44 finalistek i finalistów była tylko jedna osoba czarnoskóra. Popełniono ten
sam błąd, co w przypadku „goryli” – maszynie przedstawiono dane, które nie zakładały obecności osób o skórze innej niż biała. Algorytm po prostu zrobił to, czego go nauczono: w przypadku Google uznał dwoje ludzi za małpy, bo nie mieściły się w jego definicji człowieka, a w konkursie piękności wybrał to, co za atrakcyjne uznawali jego nauczyciele.

SKÓRA PRZESTĘPCY

Pół biedy, jeśli kończy się na oburzeniu dotkniętych wpadkami sztucznej inteligencji i zwolnieniu odpowiedzialnego za nie programisty. Gorzej, jeśli przez głupotę komputerów można mieć kłopoty z prawem. A dzieje się tak, ponieważ coraz częściej policja i sądy sięgają po – w ich mniemaniu niezawodne – systemy eksperckie wspomagające decyzje. Jeden z takich systemów, przygotowany przez firmę Northpointe, wdrożono lokalnie m.in. w kilkunastu hrabstwach Arizony, Kolorado, Kentucky, Luizjany, Wirginii i Oklahomy. Algorytm, analizujący szereg czynników dotyczących sprawcy, prognozuje prawdopodobieństwo popełnienia podobnego przestępstwa w ciągu kolejnych dwóch lat. Na tej podstawie sędzia może podjąć decyzję na przykład o zastosowaniu bardziej dotkliwej kary albo zażądać wyższej kaucji.

Ponieważ Northpointe nie kwapi się z ujawnieniem zasad zaszytych w algorytmie, problemowi przyjrzała się grupa dziennikarzy śledczych ProPublica. Sprawdzili ok. 7 tys. skazanych w hrabstwie Broward na Florydzie. Im więcej przypadków badali, tym bardziej ponury stawał się obraz „ekspertyz” sztucznej
inteligencji. Oto przykład: Vernona Pratera skazanego na pięć lat więzienia za dwa rozboje z użyciem broni i jedną próbę rozboju sztuczna inteligencja uznała za „osobę niskiego ryzyka”. Dwukrotnie bardziej niebezpieczna ma natomiast być Brisha Borden, która miała drobne kłopoty z prawem jako nieletnia. Ale Brisha jest czarnoskóra, a Vernon biały. Trzykrotnie złapany za jazdę po pijaku i raz skazany za pobicie biały Gregory Lugo dostał kategorię najniższego ryzyka. Czarna
Mallory Williams z dwoma wykroczeniami na koncie oznaczona została jako „średnio niebezpieczna”.

ProPublica podkreśla, że algorytm dwukrotnie częściej uznaje osoby czarnoskóre za skłonne do ponownego popełnienia przestępstwa – co odbija się na dolegliwości zasądzanych kar.

PIERWSZA SESJA ZA NAMI

Osobnym rozdziałem w historii wpadek sztucznej inteligencji jest działalność na giełdzie. Systemy handlu wysokich częstotliwości (tzw. High Frequency Trading, HFT) wykorzystują algorytmy decyzyjne do prowadzenia błyskawicznych transakcji – operacje kupna i sprzedaży dzielą milisekundy. Można je jednak wprowadzić w błąd, czego dowodem jest błyskawiczny krach giełdowy z czwartku 6 maja 2010 roku nazywany Flash Crash. Na skutek reakcji łańcuchowej
algorytmów akcje na nowojorskiej giełdzie drastycznie straciły na wartości – indeks Dow Jones Industrial Average spadł o około 9 proc., co oznaczało, że z rynku wyparował… bilion dolarów.

 

Przyczyną zamieszania może być nawet znacznie drobniejszy błąd. Całkiem niedawno zdarzył się on agencji ISBnews, która wykorzystuje automat do pisania notek z notowań giełdowych, „Indeks giełdowy WIG20 spadł o 0,77% wobec poprzedniego zamknięcia i osiągnął poziom 2461,21 pkt we wtorek 2 stycznia” – poinformował bot. Problem w tym, że we wtorek 2 stycznia nie było sesji, bo warszawska giełda nie pracowała. Zanim agencja wycofała depeszę, informacje o wynikach giełdy podały poważne polskie serwisy internetowe. Mało tego, wyniki przestudiował jeden z analityków finansowych, a efekty swoich przemyśleń opublikował pod hasłem „Pierwsza sesja za nami”. Nadmierne zaufanie do systemów sztucznej inteligencji owocuje też wpadkami politycznymi. Tak było, gdy Kancelaria Premiera umieściła na YouTubie filmik, na którym Mateusz Morawiecki podkreślał, że „obozy, w których wymordowano miliony Żydów, nie były polskie”. Automat tłumaczący z nieznanych przyczyn zignorował słowo „nie”. Za błąd przeprosił rzecznik serwisu Adam Malczak, ale kompromitacji – i to w tak delikatnej sprawie – uniknąć się nie udało.

Błąd tłumaczenia zaskoczył też kucharzy ekipy norweskich olimpijczyków w Pjongczang. Wydawało im się, że zamówili 1500 jajek, tymczasem dostali… 15 000, co przekładało się na 7 jaj dziennie dla każdego członka ekipy. Pomyłka miała wynikać z pominięcia jednej sylaby w tłumaczeniu Google. Rozczarowanie wpadkami zaawansowanej technologii jest tym większe, im większe nadzieje z nią wiążemy. Myślące maszyny miały być doskonalsze od nas, ułomnych ludzi, nie popełniać błędów, nie rozpraszać się i nie męczyć. Robią jednak rzeczy kompromitujące.

Dlaczego? „Komputery są obecnie na progu odczytywania i rozumienia kontekstu języka naturalnego, ale nie są jeszcze na poziomie człowieka. Ale ponieważ mogą przeczytać miliony razy więcej stron niż człowiek, nadrabiają brak zrozumienia ilością” – tłumaczy maszyny Raymond Kurzweil, słynny futurolog i wielki propagator idei sztucznej inteligencji. „Oceniam, że poziom zdolności człowieka osiągną dopiero w 2029 roku. To i tak kilkadziesiąt lat szybciej, niż szacują inni,
mniej optymistycznie nastawieni eksperci. Mamy zatem sporo czasu, żeby zastanowić się co z nią zrobić”.