powrót
Focus na życie w dobrym stylu
  • Najnowsze
  • Aktywność
  • Dom i ogród
  • Moda i uroda
  • Zdrowie

Focus na życie w dobrym stylu. Lifestyle'owy magazyn o zdrowiu, domu, podróżach, kulturze i relacjach - codziennie o tym, co realnie wpływa na jakość życia.

FacebookPlatforma XYoutubeInstagram

Nasze tematy

  • Najnowsze
  • Aktywność
  • Dom i ogród
  • Moda i uroda
  • Zdrowie
  • Parenting
  • Podróże
  • Kultura
  • Promocje
  • Styl życia
  • Pupile
  • Nauka

Redakcja

  • Polityka prywatności
  • Redakcja
  • Kontakt

© 2026 focus.pl. Wszystkie prawa zastrzeżone.

theprotocol.it
Kultura

Dolina niesamowitości. Dlaczego humanoidalne roboty tak bardzo nas przerażają?

Jeszcze kilkanaście lat temu efekt doliny niesamowitości był raczej ciekawostką z pogranicza psychologii, robotyki i estetyki. Dziś z kolei wraca dosłownie wszędzie. W mediach społecznościowych ludzie celowo stylizują się na „niepokojące androidy”, firmy technologiczne projektują roboty bez twarzy, a twórcy AI coraz częściej zastanawiają się nie nad tym, jak bardzo uczłowieczyć maszyny, ale gdzie dokładnie przebiega granica, po której człowiek zaczyna czuć dyskomfort. Dla mnie to jeden z najbardziej fascynujących tematów współczesnej technologii, bo bardzo mocno pokazuje, że problem nie leży wyłącznie w samej technologii. Problem siedzi też w nas.

J
Joanna Marteklas
2h temu·10 minut·
Dolina niesamowitości. Dlaczego humanoidalne roboty tak bardzo nas przerażają?

Źródło: Columbia Engineering/YouTube

Chcesz czytać więcej treści jak „Dolina niesamowitości. Dlaczego humanoidalne roboty tak bardzo nas przerażają?"?Dodaj Focus.pl do preferowanych źródeł w Google

Każdy chyba zna to uczucie. Patrzysz na cyfrową postać albo robota i przez chwilę wydaje ci się całkiem normalny, a potem coś się nie zgadza. Oczy są zbyt „martwe”. Mimika minimalnie opóźniona. Uśmiech wygląda jak źle zsynchronizowana animacja. Ruch dłoni wydaje się zbyt płynny albo wręcz przeciwnie — nienaturalnie szarpany. I nagle zamiast sympatii pojawia się dziwny lęk. Takie bardzo pierwotne „coś jest tutaj nie tak”.

Właśnie tym jest efekt Uncanny Valley, czyli dolina niesamowitości.

Teoria doliny niesamowitości nie jest nowa

Autorem koncepcji był japoński profesor robotyki Masahiro Mori, który opisał ją już w 1970 roku w eseju „Bukimi No Tani”. Mori zauważył bardzo dziwną zależność. Im bardziej robot przypomina człowieka, tym zwykle bardziej go lubimy i łatwiej akceptujemy jego obecność. Problem pojawia się jednak w momencie, gdy podobieństwo staje się „prawie idealne”. Do pewnego momentu sympatia rośnie. Potem nagle gwałtownie spada.

To właśnie ta emocjonalna przepaść została nazwana doliną niesamowitości. Robot jest już zbyt ludzki, by traktować go jak zwykłą maszynę, ale jednocześnie wciąż zbyt sztuczny, by mózg zaakceptował go jako człowieka. Efekt? Dyskomfort, odraza, czasem wręcz strach.

Co ciekawe, Mori zauważył ten problem podczas pracy nad realistycznymi protezami dłoni. Wizualnie wyglądały świetnie, ale podczas uścisku budziły u ludzi szok. Skóra była zimna. Chwyt nienaturalnie wiotki. Brakowało subtelnego napięcia mięśni i ciepła żywego organizmu. Człowiek intuicyjnie wyczuwał, że coś jest „martwe”, mimo że wyglądało żywo. Dla mnie to najbardziej interesujący aspekt tego wszystkiego – nasz mózg jest absurdalnie wyczulony na najmniejsze sygnały świadczące o człowieczeństwie. Wystarczy minimalny błąd i cała iluzja się rozsypuje.

Skąd właściwie bierze się ten lęk?

Przez lata powstało mnóstwo teorii próbujących wyjaśnić to zjawisko, ale najbardziej przekonująca wydaje mi się ta związana z ewolucją i biologicznymi mechanizmami obronnymi. Ludzki mózg został dosłownie zaprogramowany do wykrywania oznak choroby, śmierci i zagrożenia społecznego. Kiedy widzimy coś, co wygląda prawie jak człowiek, ale ma bladą skórę, nienaturalny wzrok, dziwną mimikę albo sztywne ruchy, podświadomie zaczynamy interpretować to jako organizm chory lub martwy.

Brzmi brutalnie, ale z ewolucyjnego punktu widzenia miało ogromny sens. Osoby, które szybciej unikały chorych czy zakażonych jednostek, miały większe szanse na przeżycie. W dodatku, współczesne badania zaczynają pokazywać, że organizm reaguje na „niesamowite” roboty nie tylko psychicznie, ale też fizjologicznie. W eksperymentach prowadzonych z wykorzystaniem VR zauważono wzrost poziomu immunoglobuliny A w ślinie uczestników podczas kontaktu z niemal ludzkimi postaciami cyfrowymi. To przeciwciało związane z pierwszą linią obrony organizmu przed patogenami.

Innymi słowy — ciało dosłownie zachowuje się tak, jakby kontakt z humanoidalnym robotem mógł stanowić zagrożenie biologiczne.

Martwe oczy i lęk przed śmiercią

Jednak efekt doliny niesamowitości często łączy się też z czymś dużo głębszym — lękiem egzystencjalnym. Humanoidalne roboty przypominają nam o śmierci bardziej, niż chcielibyśmy przyznać. Ich twarze bywają dziwnie nieruchome, mimika przypomina maskę pośmiertną, a ruchy wydają się jednocześnie żywe i martwe. Mózg odbiera to jako coś nienaturalnego. To trochę jak patrzenie na manekina, który nagle zaczyna oddychać.

Istnieje nawet teoria, według której najbardziej przeraża nas nie sam robot, ale myśl, że człowieczeństwo może być jedynie zestawem procesów biologicznych możliwych do odtworzenia przez maszynę. Jeśli emocje, mimika i reakcje społeczne można skopiować algorytmem, to gdzie właściwie kończy się „osoba”, a zaczyna mechanizm? Właśnie dlatego humanoidalne AI wywołuje dziś aż tyle emocji. Nie chodzi wyłącznie o technologię. Chodzi o kryzys definicji człowieka.

Ten motyw widzieliśmy też wiele razy w filmach albo serialach, jak chociażby w Westworld. Jeśli android zyskał świadomość, ma emocje, zachowuje się i wygląda jak człowiek, to… czy jest człowiekiem? To bardzo niewygodne pytanie, które mimo upływu lat i rozwoju technologii wciąż pozostaje bez jednoznacznej odpowiedzi. Na tym również bazuje efekt doliny niesamowitości. Każe myśleć o czymś, o czym nie chcemy.

Roboty bez twarzy

Temat na ten artykuł wpadł mi do głowy już jakiś czas temu, gdy pisałam o kolejnych przełomach w tworzeniu robotów humanoidalnych. Zwróciłam wtedy uwagę na pewien ciekawy szczegół – współczesne humanoidy nie mają twarzy. Optimus od Tesli, modele od Unitree czy Boston Dynamics, wszystkie zostały wyposażone w głowy, jednak na nich są czarne wizjery, panele LED lub minimalistyczne „hełmy”. To nie jest wcale wynik ograniczeń technologicznych.

Branża robotyczna doskonale wie o istnieniu doliny niesamowitości i coraz częściej świadomie jej unika. Firmy doszły więc do wniosku, że realistyczna twarz bardziej szkodzi niż pomaga. Kiedy robot wygląda jak człowiek, automatycznie zaczynamy oczekiwać ludzkiego zachowania. Empatii. Ironii. Zrozumienia emocji. Tymczasem współczesne AI nadal bardzo często zawodzi w subtelnościach komunikacji.

Jeśli humanoidalny robot z realistyczną twarzą zaczyna mówić kompletny absurd albo nie rozumie prostego żartu, efekt staje się dużo bardziej niepokojący niż w przypadku zwykłego chatbota. Dlatego Figure AI postawiło na design przypominający bardziej futurystyczne narzędzie niż syntetycznego człowieka. Boston Dynamics zrobiło podobnie z Atlasem, którego projekt bardziej przypomina sprzęt przemysłowy niż androida z science fiction.

Dlatego to działa. Spójrzcie na popularnego w polskich social mediach Edwarda Warchockiego, czyli robota humanoidalnego od Unitree. Został on mocno dostosowany do pełnienia roli “miejskiego eksperymentu”. Wyposażony w plecak, nakolanniki, oświetlenie na kasku i głośnik, by był dobrze słyszalny, Edward przemieszcza się po Warszawie i po prostu spotyka ludzi, rozmawia z nimi, wchodzi w różnorodne interakcje. Ludzie go kochają, wybaczają mu błędy i po prostu dobrze się bawią, oglądając go. Jednak czy byłoby tak samo, gdyby Edward prawie przypominał człowieka? Nie sądzę.

Taka forma jest dla nas uczciwa. Nie próbuje udawać człowieka, nie oszukuje naszego mózgu i dlatego możemy reagować na niego z sympatią.

Wyjątek? Roboty społeczne

Są jednak firmy, które świadomie próbują przekroczyć dolinę niesamowitości zamiast ją omijać. Najlepszym przykładem jest Ameca od brytyjskiego Engineered Arts. To jeden z najbardziej ekspresyjnych humanoidów świata. Potrafi unosić brwi, marszczyć czoło, naśladować subtelne ruchy ramion i wykonywać mikroruchy przypominające oddychanie.

Co ciekawe, twórcy Ameki specjalnie nie poszli w pełny realizm. Robot ma szarą silikonową skórę i neutralny wygląd pozbawiony wyraźnych cech etnicznych czy płciowych. Dzięki temu nadal wygląda sztucznie, ale jego zachowanie wydaje się bardziej „autentyczne”. Nadal nie mamy problemu, by rozpoznać w tym robota, więc wszystko „gra”.

Tu badacze wysnuli ciekawy wniosek – to nie wygląd jest najważniejszy. Najbardziej liczy się ruch. Mózg dużo bardziej wybaczy sztuczną twarz z naturalną mimiką niż perfekcyjny model człowieka poruszający się jak automat lub co gorsza, mający tylko sporadyczne, delikatne zacięcia. Dlatego Pixar praktycznie nigdy nie wpada w dolinę niesamowitości. Postacie są wyraźnie kreskówkowe, ale ich emocje i ruch wydają się autentyczne. Tymczasem hiperrealistyczne CGI często wygląda gorzej właśnie dlatego, że najmniejszy błąd staje się natychmiast widoczny.

Hollywood już wiele razy wpadło do tej doliny

Skoro zahaczyliśmy o filmy, zostańmy tu na chwilę, bo to naprawdę świetny temat. Zapewne większość z nas zderzyła się z efektem doliny niesamowitości właśnie za pośrednictwem CGI w filmach, zwłaszcza tych, w których ta technologia dopiero raczkowała. Sztandarowym przykładem pozostaje chyba „Ekspres Polarny” z 2004 roku. Technologia motion capture była wtedy rewolucyjna, ale widzowie masowo opisywali bohaterów jako „martwych”, „pustych” i „przerażających”. Problemem były głównie oczy i brak subtelnych mikroekspresji. Nawet jeśli wiadomo było, że to efekty komputerowe, mózg nie chciał słuchać i odrzucał obraz.

Z nowszych przykładów mamy chociażby „Koty” z 2019 roku. O ile musical kocham, o tyle nie byłam w stanie obejrzeć tego filmu. Połączenie ludzkich twarzy z kocimi ciałami wywoływało u wielu osób – w tym we mnie – wręcz fizyczny dyskomfort.

Nie mogę też nie wspomnieć o Sonicu. Kiedy wyszedł pierwszy zwiastun, internet wybuchł. Niebieski jeż dostał bowiem ludzkie oczy i zęby, które były tak bardzo niepokojące, że ciężko było w ogóle na to patrzeć. Reakcja internautów na szczęście zmusiła studio Paramount do działania i finalnie dostaliśmy całkiem dobrze wyglądającego Sonica, który raczej do nikogo nie wrócił potem w koszmarach.

Takich przykładów kinematografia zna więcej. W Rogue One cyfrowy Peter Cushing zaserwował nam sztywną i niepokojącą mimikę. Przy okazji było tu też sporo kontrowersji etycznych i estetycznych. Ogólnie wystarczy cofnąć się o kilka lub kilkanaście lat i znaleźć dowolny film z ludźmi tworzonymi w CGI, by na własnej skórze doświadczyć efektu doliny niesamowitości. Większość z tych rozwiązań nie zestarzała się niestety zbyt dobrze. Obecnie jest na pewno dużo lepiej, jednak nadal ciężko mówić o tym, by takich postaci nie dało się odróżnić od człowieka. Na przestrzeni całego filmu zawsze da się wyłapać te drobne szczegóły, które zaalarmują nasz mózg.

Japonia i Zachód patrzą na roboty zupełnie inaczej

Co ciekawe, różnice kulturowe też mają swój ogromny wpływ na ten efekt. W Japonii humanoidalne roboty są odbierane dużo bardziej pozytywnie niż w Europie czy USA. Wynika to między innymi z tradycji shinto, czyli religii opartej na animizmie. W tym podejściu nawet przedmioty nieożywione mogą posiadać „ducha” lub pewnego rodzaju esencję życia.

Japończycy od XVII wieku fascynowali się mechanicznymi lalkami karakuri ningyō, które służyły rozrywce i budowaniu więzi społecznych. Do tego dodajmy też popkulturę, która ukształtowała wizerunek robota jako bohatera, przyjaciela i partnera posiadającego „serce”. W efekcie, Japończycy rzadziej doświadczają lęku przed doliną niesamowitości; dla nich im bardziej robot przypomina człowieka, tym łatwiej o nawiązanie z nim relacji emocjonalnej. Zapewne właśnie dlatego to w Japonii mocno rozwija się rynek robotów usługowych, które dostają ludzkie twarze.

Z kolei na Zachodzie wygląda to zupełnie inaczej. Idee judeochrześcijańskie stawiają u nas człowieka w roli unikalnego stworzenia, oddzielonego od świata martwego materii. W literaturze wiele razy opisywano przykłady prób stworzenia „sztucznego życia”, a każda z nich była postrzegana jako akt pychy i zagrożenie dla ludzkiej godności (tzw. Kompleks Frankensteina). U nas od dekad dominuje motyw „buntu maszyn”. Terminator. Matrix. HAL 9000. Sztuczne życie bardzo często przedstawiano jako zagrożenie dla człowieka.

Z tego powodu Amerykanie i Europejczycy wykazują znacznie silniejszą reakcję obronną na roboty przypominające ludzi. Zwiększenie fizycznego i psychicznego podobieństwa robota do człowieka drastycznie obniża komfort interakcji u Amerykanów, podczas gdy u Japończyków efekt ten jest niemal niezauważalny. Na Zachodzie roboty są akceptowane głównie jako narzędzia, a próba nadania im „duszy” budzi instynktowny opór.

TikTok zrobił z doliny niesamowitości trend

Tu zahaczmy jeszcze o coś bardzo absurdalnego, bo w ostatnich latach social media zrobiły z Uncanny Valley… estetykę. Na TikToku trend #uncannyvalley zdobył miliardy wyświetleń. Twórcy zaczęli celowo stylizować się na humanoidalne androidy przy pomocy makijażu, filtrów i specyficznej gry aktorskiej. Jasna, plastikowa skóra. Nienaturalnie szerokie oczy. Brak mrugania. Powolne, mechaniczne ruchy. Minimalne opóźnienia mimiki.

To jest niesamowicie ciekawe kulturowo, bo poprzez imitację „niesamowitego”, młodzi ludzie przejmują kontrolę nad lękiem przed byciem zastąpionym przez technologię. Jest to proces „odwrócenia roli” – człowiek dobrowolnie staje się humanoidem, by badać granice własnej tożsamości w świecie zdominowanym przez algorytmy.

W ten sposób coś, co było błędem inżynieryjnym, stało się nową kategorią estetyczną, bliską takim nurtom jak weirdcore czy dreamcore.

Czy kiedyś efekt Uncanny Valley przestanie wzbudzać w nas lęk?

Możliwe, że częściowo już się to dzieje. Badania sugerują, że młodsze pokolenia wychowane z awatarami VR, influencerami AI i asystentami głosowymi reagują na humanoidalne byty znacznie spokojniej niż starsi użytkownicy. Dla nich granica między „prawdziwym” a „cyfrowym” od początku była bardziej płynna. Jednak nadal jest obecna.

Wydaje mi się, że dolina niesamowitości nigdy całkowicie nie zniknie. Bo nie jest wyłącznie problemem technologii. To efekt uboczny tego, jak bardzo ludzki mózg jest wyspecjalizowany w rozpoznawaniu drugiego człowieka. Ten efekt pokazuje, że człowieczeństwo nie sprowadza się do skóry, oczu i odpowiednio wygenerowanego głosu. Nasz mózg wyłapuje tysiące mikrodetali, których nawet świadomie nie zauważamy. Technologia potrafi dziś stworzyć perfekcyjną twarz. Potrafi wygenerować realistyczny głos. Potrafi imitować emocje, ale nadal bardzo łatwo czujemy, kiedy „duszy” tam po prostu nie ma.

Dolina niesamowitości nie jest błędem, który należy po prostu „naprawić” za pomocą większej liczby wielokątów w modelu 3D. Można go złagodzić, można zwracać mniejszą uwagę na te różnice, a można również nic z tym nie robić. Jak dla mnie, roboty nie muszą mieć ludzkiej twarzy. Optimus czy Atlas są tego świetnym przykładem. Żyjemy w czasach, w których unikalność mocno zanika. AI generuje grafiki, filmy, piosenki, wchodząc z butami w kulturę. Po co więc odbierać sobie jeszcze ludzka twarz i dawać ją maszynom?

Spodobał Ci się ten artykuł?

Daj znać autorowi — kliknij wielokrotnie.

Chcesz czytać więcej treści jak „Dolina niesamowitości. Dlaczego humanoidalne roboty tak bardzo nas przerażają?"?Dodaj Focus.pl do preferowanych źródeł w Google
Udostępnij
FacebookX