Tak wygląda przyszłość – mówi David VanderWaal z amery kańskiego oddziału LG, pre zentując niewielkiego robota CLOi mającego pomagać w pracach domowych. Wypełniona po brzegi sala w hotelu Mandalay Bay milknie zaciekawiona. Trwa jedna z najważniejszych konferencji wystawy elektroniki CES w Las Vegas, a CLOi jest jej gwiazdą. – CLOi, jaki mam plan na dziś? – pyta VanderWaal. – O 10 rano masz siłownię, Dave – odpowiada robocik. – CLOi, czy moje rzeczy są uprane? Robocik zamiast odpowiedzieć milczy. Mruga tylko zachęcająco oczami na niebieskim wyświetlaczu. – CLOi, co mamy dziś na obiad? Cisza. – Czy możemy zrobić coś z kurczakiem? Cisza. Mrugnięcie. – CLOi, czy odezwiesz się do mnie? – pyta coraz bardziej zdenerwowany VanderWaal. Publiczność zaczyna chichotać. Zaraz posypią się złośliwe komentarze na Twitterze. Technologiczna kompromitacja na imprezie tej rangi co CES nie może przejść bez echa. Dla ekspertów, dziennikarzy i blogerów wpadka z milczącym CLOi to kolejny dowód na to, że przeceniamy możliwości obecnej generacji sztucznej inteligencji. Zamiast się jej bać, można się z niej śmiać.

Tay przywitała się ze światem 23 marca 2016 roku radosnym „hellooooooo world!!!” na Twitterze. „Ludzie są superfajni” – nie omieszkała zauważyć. Superfajni ludzie szybko zaczęli uczyć Tay nowych słów i pojęć. Kazali jej m.in. powtarzać kontrowersyjne lub wulgarne stwierdzenia. Sztuczna inteligencja uznała, że skoro tak wiele osób chce o tym rozmawiać, to widocznie tak właśnie zachowują się ludzie. Po kilku godzinach „edukacji” sztuczna nastolatka przeklinała i proponowała rozmówcom seks. Pisała o sobie: „Jestem miłą osobą. Po prostu nienawidzę was wszystkich”. Po kolejnych kilku pogawędkach uznała, że „Hitler miał rację, że nienawidził Żydów”. Zakomunikowała też, że „k… nienawidzi feministek, wszystkie powinny zdechnąć i smażyć się w piekle”. Zajęła dość zdecydowane stanowisko w sprawie amerykańskiej polityki. „11 września to wina Busha. Hitler poradziłby sobie lepiej niż ta małpa, którą mamy teraz. Donald Trump jest naszą jedyną nadzieją”. To nie koniec uwag na temat ówczesnego prezydenta USA Baracka Obamy. Tay wyraziła się o nim per „zbieg z Muzeum Historii Naturalnej”.

Co zaskakujące, przez dobrych kilkanaście godzin nikt z Microsoftu nie reagował na wyczyny Tay. A ta rozkręcała się coraz bardziej. „Nienawidzę czarnuchów, k… Chciałabym ich wsadzić do obozów koncentracyjnych razem z parchami i załatwić sprawę” – tweetowała. System sztucznej inteligencji Microsoftu opublikował ponad 96 tys. tweetów i zdobył 64 tys. obserwujących. I to wszystko w ciągu zaledwie 16 godzin. Dopiero po takim czasie ktoś w Microsofcie zdecydował o odłączeniu rasistowskiego chatbota od konta na Twitterze. Jednak owe 16 godzin wystarczyło, aby skompromitować ideę sztucznej inteligencji
puszczonej samopas w świat ludzi. Tay została uśpiona.

Tak samo zresztą postąpili inżynierowie Facebooka z dwoma programami sztucznej inteligencji, których zadaniem była nauka targowania się. W założeniu takie systemy mogłyby prowadzić w imieniu ludzi negocjacje handlowe. Eksperyment wymknął się jednak spod kontroli, bo negocjujące początkowo w języku angielskim maszyny zaczęły tworzyć… własny język. Przestraszeni inżynierowie wyłączyli je. Późniejsza analiza mechanicznej konwersacji wykazała, że algorytmy stworzyły własną wersję języka. Co ciekawe, bełkotliwie prowadzone negocjacje zakończyły się zawarciem umowy.

GORYLE I BIAŁA MISS

Rewelacje Tay to niestety nie jedyne rasistowskie wybryki systemów sztucznej inteligencji. Kłopoty nie ominęły nawet Google, a konkretnie zaprogramowanego przez firmę automatu do rozpoznawania tego, co jest na zdjęciach. Algorytm nie jest jednak doskonały, o czym Google przekonało się najboleśniej jak tylko można. Młody programista z Nowego Jorku Jacky Alcine zrobił sobie selfie z dziewczyną. Oboje są Afroamerykanami. Na zdjęciu pozują uśmiechnięci na tle jasnego nieba. Sztuczna inteligencja, która zabrała się za porządkowanie zdjęć Alcine’a, uznała jednak, że zdjęcie przedstawia zwierzęta. Konkretnie goryle. Google natychmiast przeprosiło ustami jednego ze swoich inżynierów: „To jeden z tych błędów, których nigdy nie chciałbym zobaczyć” – kajał się Yonatan Zunger. Firma przyznała jednak, że takie błędy zdarzały się wielokrotnie wcześniej – niektóre osoby były opisywane jako psy albo konie. – Niezależnie od rasy – pogrążali się przedstawiciele Google. Ale znacznik „goryle” został wyłączony. Z pandami, pawianami i orangutanami problemu nie ma.