Strona poświęcona Normanowi, sztucznej inteligencji stworzonej przez MIT Media Lab, ruszyła pierwszego kwietnia, zatem większość informacji, które na niej znajdziemy trzeba traktować z przymróżeniem oka, ale czy wszystkie? Naukowcy, którzy stoją za tym projektem tworzyli wcześniej podobne algorytmy i badali równie mroczne możliwości. Norman istnieje i działa, choć wbrew temu co o nim piszą, nie trzeba go trzymać pod strażą w piwnicy. 

Sieć neuronowa opracowała trójka naukowców: Pinar Yanardag, Manuel Cebrian oraz Iyad Rahwan, wszyscy pracują w MIT Media Lab i zajmują się uczeniem maszynowym. 

Jak każda sztuczna inteligencja, Norman musiał mieć wyznaczone pole, z którego będzie się uczył wiedzy o świecie i zbierał dane do przyszłych wniosków. Jego podstawową funkcją jest podpisywanie obrazków w zależności od tego jak “skojarzy” mu się dana treść. Jego “rodzice” wypuścili go w ramach placu zabaw w zakamarki popularnego serwisu Reddit, wystawiając na treści raczej z gatunku delikatnie mówiąc niepokojących. 

Żeby sprawdzić jak Norman poradził sobie z agregowaniem wiedzy jego twórcy przeprowadzili na nim słynny test Rorschacha, czyli pokazywali mu plamy z tuszu i pytali jakie ma z nimi skojarzenia. Podpisy Normana są naprawdę mroczne. Tam gdzie bliźniacze (ale inaczej trenowane) AI widziały tort weselny, on zobaczył rozjechanego przez samochód człowieka. Plama kojarząca się “zwykłej” sieci z kimś trzymającym parasol Normanowi przypominała scenę zastrzelenia mężczyzny na oczach jego własnej żony. Przyznacie, że można się zaniepokoić.

Ten sam zespół MIT Media Lab swego czasu pokazał światu Shelley, sieć neuronową, która razem z użytkownikami pisała opowiadania grozy. Inną ich kreacją było Nightmare Machine – sztuczna inteligencja przekształcająca zdjęcia w mroczne obrazy.

Tego typu eksperymenty zacierają granicę między sztuką a nauką, tworzone w ten sposób prace bywają inspirujące dla obu stron. Jednak nas (popularnonaukowy portal) przede wszystkim interesuje to jak uczą się maszyny, w jaki sposób gromadzą i wykorzystują informacje. Z drugiej strony sama warstwa estetyczna badań zespołu MIT Media Lab pokazuje jak dobrze czują się w nawiązaniach do popkultury i potrafią łączyć dreszczowce z pozornie nudnymi sieciami zbierającymi informacje. 

To kolejny bardzo interesujący kawałek wielkiego badania nad uczeniem się przez maszyny. Nie jest to wcale oderwane od rzeczywistości, stykacie się z nim na codzień choćby obserwując dopasowywanie się reklam w internecie do tego, co klikaliście wcześniej.

Norman uczył się wyłącznie z mrocznych źródeł na szczęście wyposażono go tylko w możliwości komentowania obrazków, zatem nie byłby niebezpieczny. Z drugiej strony gdyby równie sprawny zespół stworzył jeszcze bardziej zaawansowaną sieć neuronową i pozwolił jej wykonywać znacznie bardziej skomplikowane czynności na bazie tego czego się nauczy? Powiedzenie "czym skorupka za młodu nasiąknie, tym na starość trąci" odnosi się tak samo do AI.

Źródło: MIT Media Lab / Live Science