Theodore Twombly zarabia na życie, pisząc wzruszające osobiste listy dla innych ludzi. Przeżywa załamanie po zerwaniu z narzeczoną i bez reszty oddaje się zgłębianiu nowego zaawansowanego systemu operacyjnego, który potrafi stworzyć wirtualnego rozmówcę dla każdego użytkownika. W przypadku Theodore’a jest to Samantha. Rozmowy z nią stają się dla niego czymś, bez czego nie potrafi sobie wyobrazić codziennego funkcjonowania. Wkrótce zakochuje się w sztucznej inteligencji – uczącym się algorytmie.

Tak w skrócie wygląda scenariusz filmu „Ona”. Wielu ludzi traktuje go jak kolejną łzawą hollywoodzką historyjkę, ewentualnie wizję odległej przyszłości. Tymczasem sztuczna inteligencja już dziś potrafi lepiej niż inni ludzie rozumieć człowieka i jego problemy. Dotyczy to także dziedzin – wydawałoby się – tak bardzo ludzkich jak psychologia i psychoterapia.

Terapia na czacie

Pierwsze próby zastąpienia terapeuty maszyną podjęto w latach 60. XX wieku w Massachusetts Institute of Technology (MIT). Wówczas powstał program rozmawiający z ludźmi poprzez komputer – Eliza, którą dziś zaliczylibyśmy do tzw. czatbotów. Teraz budzi on rozbawienie, bo nie był zbyt wyrafinowany. Elizę łatwo można zdemaskować, pisząc kompletne bzdury, na które komputer nie umie sensownie zareagować. Jednak wielu uczestników badań na MIT – nieświadomych tego, że rozmawiają z maszyną – traktowało kontakt z nią jak rozmowę z żywym człowiekiem, który okazywał się pomocny w zrozumieniu ich problemów.

Dziś Eliza ma skuteczniejszych i niezwykle wiarygodnych następców, takich jak Tess firmy X2AI. Można z nią porozmawiać poprzez SMS-y, komunikator Facebook Messenger i kilka innych platform. Nie wymaga dodatkowych aplikacji – z punktu widzenia użytkownika jest numerem telefonu komórkowego. Dzięki sztucznej inteligencji Tess oferuje spersonalizowaną psychoterapię, psychoedukację i wsparcie tradycyjnego leczenia. I robi to bardzo przekonująco. „Byłam wstrząśnięta tym, jak naturalnie czułam się podczas tej rozmowy. W ciągu kilku minut zapomniałam, że moim rozmówcą w rzeczywistości jest komputer” – wspomina Alison Berman z Singularity University.

Innym przykładem jest program stworzony przez psycholog Fjolę Helgadottir, a nazwany po prostu AI-Therapy. Wykorzystuje on gromadzone przez ponad 20 lat wyniki badań nad fobiami społecznymi i stosuje metody zapożyczone z terapii poznawczo-behawioralnych (CBT). Aplikacja pomaga ludziom cierpiącym z powodu lęku społecznego, a badania potwierdziły jej skuteczność.

CBT jest terapią bardzo dobrze opisaną – jej standardy łatwo jest przełożyć na program komputerowy. Tego typu aplikacje są już standardowo zalecane przy leczeniu depresji i lęku w Wielkiej Brytanii. Także i w Polsce trwają prace nad podobnymi rozwiązaniami – zaangażowane są w to Uniwersytet SWPS i firma Norbsoft. Nadal w procesie leczenia bierze udział psycholog potrzebny np. do postawienia diagnozy. Jednak wkrótce i to może się zmienić. 

Algorytm na myśli samobójcze

W listopadzie 2016 r. w „Psychological Bulletin” ukazała się analiza 365 badań przeprowadzonych na przestrzeni ostatnich 50 lat, a poświęconych identyfikacji czynników ryzyka prowadzących do samobójstwa. Wnioski były dość szokujące. „Ekspert zajmujący się samobójstwami po przeprowadzeniu pogłębionej analizy czynników ryzyka mógłby przewidzieć wystąpienie u pacjenta przyszłych myśli i zachowań samobójczych z taką samą dokładnością jak ktoś bez jakiejkolwiek wiedzy o pacjencie na podstawie rzutu monetą. To niezwykle upokarzające – po dziesiątkach lat badań nauka nie dokonała żadnego postępu w tej dziedzinie” – komentował dr Joseph C. Franklin z Florida State University, jeden z autorów badania.

Z naukowego punktu widzenia to porażka dominującego sposobu uprawiania psychologii, traktującego człowieka w sposób mechanistyczny, w myśl którego badanie pojedynczych czynników i ich interakcji pozwoli nam zrozumieć człowieka. Okazuje się jednak, że i tu maszyny zaczynają zyskiwać przewagę. Od dwóch lat naukowcy prowadzą zaawansowane prace nad algorytmami komputerowymi, które są w stanie przewidzieć zachowania samobójcze, analizując dziesiątki lub nawet setki różnych czynników. Zasada ich działania jest analogiczna do stosowanej przez wyszukiwarkę Google, która uczy się naszych preferencji i potem podpowiada nam, jakie strony lub reklamy mogą być dla nas interesujące.

„Obecnie algorytmy przewidują zachowania samobójcze z trafnością powyżej 80 proc., ale prace nad nimi są dopiero w początkowej fazie. Jednak w niedalekiej przyszłości mogą przynieść rezultat w postaci precyzyjnych przewidywań na ogromną skalę” – mówi dr Franklin. Jego zespół stworzył darmową aplikację terapeutyczną zwaną Tec-Tec. Wstępne badania prowadzone z udziałem kilkuset osób wykazały, że dzięki niej liczba myśli i zachowań samobójczych może spaść nawet o połowę. Twórcy Tec-Tec mają nadzieję uzyskać wkrótce rezultat bliski 100 proc.

Czytanie z twarzy

W zakresie wykrywania i zapobiegania działaniom samobójczym sztuczna inteligencja w ciągu dwóch lat dokonała więcej niż rzesze terapeutów i psychologów przez pół wieku. Ten dystans będzie się powiększał, o czym świadczą badania zespołu Jonathana Gratcha z amerykańskiego Institute for Creative Technologies.

W ramach programu SimSensei stworzono tam wirtualną terapeutkę o imieniu Ellie. Wyglądem przypomina postać z popularnej gry komputerowej „The Sims”. Umie rozmawiać z pacjentem, reagując stosownie do rozwoju sytuacji, np. uśmiechając się lub pochylając do przodu. Umożliwia jej to kamera i mikrofon, dzięki którym rejestruje najdrobniejsze zmiany w głosie czy mimice rozmówcy. Raport opublikowany w 2014 r. wykazał, że pacjenci chętniej się przed nią otwierali i swobodniej opowiadali o swoich problemach. Innymi słowy, woleli kontakt z maszyną niż z terapeutą człowiekiem.

Sztuczna inteligencja może nawet wyjaśnić zjawiska, z którymi psychologia boryka się od stuleci. Badacze od dawna podejrzewali, że w rysach twarzy człowieka mogą być zapisane predyspozycje np. do popełniania przestępstw. Jednak nigdy nie udało im się zdobyć na to rzetelnych dowodów, a tzw. fizjonomikę uznano za pseudonaukę. Dopiero w 2011 r. grupa psychologów z Cornell University wykazała, że część z nas potrafi „na oko” rozpoznać przestępcę na zdjęciu. Nikt nie wiedział, dlaczego tak się dzieje, dopóki do pracy nie zaprzęgnięto komputera.

Xiaolin Wu i Xi Zhang z Shanghai Jiao Tong University stworzyli sieć neuronową – program, który uczy się na podstawie dostarczonych mu danych. Po „nakarmieniu” go zdjęciami różnych obywateli Chin uzyskali algorytm rozpoznający przestępców z dokładnością bliską 90 proc. Okazało się, że znaczenie ma tylko kilka cech. Naukowcy nadal nie wiedzą, dlaczego akurat taka budowa twarzy ma związek ze skłonnościami przestępczymi, ani czy fenomen nie dotyczy wyłącznie osób pochodzenia azjatyckiego. Jedno jest już jednak pewne – w tym względzie sztuczna inteligencja może co najmniej dorównać ludzkiej intuicji.

Co najmniej, ponieważ algorytmy bez przerwy uczą się na błędach, nie wstydząc się tego i nie próbując racjonalizować swoich porażek. Doświadczeni psycholodzy i terapeuci często korzystają ze swojego doświadczenia i intuicji klinicznej, ale trudno przełożyć to na spójny, sprawdzony system wiedzy. Dlatego pracę terapeutyczną nadal traktuje się jak sztukę, a nie naukę. Natomiast algorytm sztucznej inteligencji można zbadać, udoskonalać i kopiować bez problemu. Wygląda więc na to, że w niedalekiej przyszłości być może to komputery będą nas w stanie zrozumieć lepiej niż jakikolwiek człowiek.