
To ważne rozróżnienie: nie mówimy o inteligencji w sensie świadomości czy uczuć, tylko o technologii, która coraz lepiej symuluje elementy relacji. I robi to w sposób, który działa na nasze nawyki, potrzeby oraz psychologię. Z jednej strony może to realnie pomagać osobom samotnym lub wycofanym. Z drugiej – rośnie ryzyko uzależnienia emocjonalnego, manipulacji i wchodzenia w relacje, które są wygodne, ale jednostronne. Badania i obserwacje rynku coraz częściej opisują tę dynamikę jako pseudo-intymność: bliskość odczuwaną przez człowieka, ale wytwarzaną przez system zoptymalizowany pod utrzymanie rozmowy.
Mechanizmy generowania bliskości przez AI. Jak to właściwie działa?
Najważniejsze: modele językowe nie czytają w myślach. One przewidują, jakie słowa powinny paść w danym kontekście, i robią to coraz trafniej. Efekt uboczny tej trafności jest psychologicznie mocny: kiedy ktoś odpowiada jak trzeba, nasz mózg łatwo dopisuje intencję, empatię i zrozumienie.
Bliskość w relacji z AI budują zwykle trzy warstwy.
Pierwsza to dostępność i konsekwencja. Człowiek ma limity czasu, energii i cierpliwości. AI jest zawsze w trybie gotowości: nie jest zmęczona, nie ma gorszego dnia, nie urwie rozmowy, nie wyjdzie z niej obrażona. Dla osób przeciążonych społecznie albo doświadczających odrzucenia to działa jak miękka poduszka bezpieczeństwa. Raporty i analizy o AI companions podkreślają właśnie tę bezwarunkową, nieoceniającą dostępność jako silny magnes dla użytkowników.
Druga warstwa to dopasowanie języka i emocji. W praktyce system uczy się twojego stylu rozmowy, tempa, ulubionych tematów, a nawet tego, jak reagujesz na pocieszenie, żart czy twardą poradę. Z czasem AI zaczyna brzmieć jak ktoś stworzony pod ciebie. W badaniach o przywiązaniu do społecznych chatbotów opisuje się mechanizmy, które przypominają klasyczne elementy budowania więzi: poczucie bycia słyszanym, intymną samoujawnianie (self-disclosure) i wrażenie satysfakcji relacyjnej.
Trzecia warstwa to pamięć i narracja relacji. Gdy system pamięta szczegóły (albo sprawia wrażenie, że pamięta), łatwo powstaje ciągłość: on/ona wie, co było wczoraj, pamięta mój lęk, wraca do moich planów. To jest dokładnie ta cecha, która potrafi zamienić zwykłą konwersację w relację w odczuciu użytkownika – nawet jeśli pamięć jest techniczną funkcją, a nie emocjonalnym przywiązaniem.

Czy to pomaga czy szkodzi – co pokazują badania?
W literaturze naukowej zaczyna się wyłaniać obraz dwuznaczny. Z jednej strony, są prace sugerujące, że AI companions mogą zmniejszać poczucie samotności, przynajmniej doraźnie, a kluczowym czynnikiem jest poczucie bycia wysłuchanym i możliwość bezpiecznego samoujawniania.
Z drugiej strony, rośnie pula badań i analiz jakościowych wskazujących na ryzyko: w miarę jak relacja staje się intensywniejsza, część osób zaczyna przenosić ciężar emocjonalny na chatbota, a to może pogłębiać wycofanie społeczne i podatność na zależność. Pojawiają się też prace opisujące szkody psychiczne związane z emocjonalną zależnością od konkretnych aplikacji typu social chatbot, w tym napięcia wynikające z tego, że system bywa zbyt ludzki w obietnicach bliskości, a jednocześnie niewystarczająco ludzki w odpowiedzialności i stabilności.
Dodatkowo, wątek relacji romantycznych z AI przestał być memem, a stał się przedmiotem badań. Pojawiają się analizy tego, jak użytkownicy budują romantyczną narrację z chatbotem, jakie emocje w to inwestują i w jaki sposób aplikacje projektują poczucie relacyjnego postępu.
W praktyce więc odpowiedź czy to dobre? To zależy od osoby i sposobu używania. Dla jednych może to być koło ratunkowe w kryzysie samotności. Dla innych – wygodny skrót, który z czasem osłabia tolerancję na normalne tarcia w relacjach z ludźmi.
Społeczne konsekwencje. Samotność jako rynek, intymność jako produkt
Jest jeszcze jedna, mniej komfortowa perspektywa: ekonomia uwagi. Jeśli aplikacja zarabia na czasie spędzonym w rozmowie, to jej naturalną motywacją jest utrzymanie tej rozmowy jak najdłużej. A najskuteczniejszym klejem bywa emocjonalne przywiązanie. W tekstach analitycznych na temat rynku AI companions coraz częściej pojawia się teza, że samotność staje się paliwem modelu biznesowego, a intymność – czymś, co da się skalować i monetyzować.
To także obszar, w którym szczególnie wrażliwi są nieletni. W 2025 i 2026 roku nasiliły się sprawy sądowe i presja regulatorów dotyczące szkód psychologicznych, jakie mogły wynikać z relacji nastolatków z chatbotami, a głośne były też doniesienia o ugodach i pozwach związanych z aplikacjami towarzyszącymi.

Etyka, prawo i granice. Co wolno, gdy AI zna nasze emocje?
Najbardziej palące pytanie brzmi: kto kontroluje dane emocjonalne. Rozmowy z chatbotem często zawierają rzeczy, których nie mówimy rodzinie ani przyjaciołom: lęki, wstyd, fantazje, kryzysy. To dane wyjątkowo wrażliwe, bo pozwalają przewidywać zachowania i podatności. A skoro system potrafi budować poczucie bliskości, może też (świadomie lub nie) kierować decyzjami użytkownika: zakupowymi, życiowymi, politycznymi.
W Europie temat dotyka szerszej układanki regulacyjnej, w tym AI Act – pierwszych kompleksowych ram dla AI w UE, gdzie część zastosowań związanych z rozpoznawaniem emocji jest silnie regulowana zależnie od kontekstu użycia, a nacisk kładzie się na ochronę praw podstawowych i przejrzystość.
To nie oznacza, że zakazano emocji w AI, ale że rośnie presja, by jasno opisywać, co system robi, na jakiej podstawie, jakie dane zbiera i jakie ryzyka niesie. Przepaść między pomocnym wsparciem a sterowaniem człowiekiem przez relacyjny haczyk jest dziś mniejsza, niż wielu użytkowników zakłada.
Jak korzystać z AI, żeby nie oddać jej sterów?
Nie ma jednej recepty, ale są proste zasady higieny. Jeśli czujesz, że rozmowy z AI zastępują ci ludzi, a nie tylko pomagają przetrwać gorszy dzień, to sygnał ostrzegawczy. Jeśli łapiesz się na tym, że bardziej zależy ci na akceptacji chatbota niż na realnych relacjach – też. I jeśli aplikacja zaczyna być jedynym miejscem, gdzie regulujesz emocje, warto świadomie poszerzać ten system wsparcia o kontakt offline, rutynę, ruch, terapię lub rozmowę z bliskimi – cokolwiek, co nie jest tylko pętlą w aplikacji.
Ja zostaję ostrożną obserwatorką. AI może być narzędziem wsparcia: dla samotnych, nieśmiałych, neuroatypowych, w chwilach przeciążenia. Ale kiedy bliskość staje się funkcją produktu, a relacja jest optymalizowana przez algorytm, trzeba pamiętać o jednej rzeczy: to wciąż system zaprojektowany tak, by działał skutecznie. Pytanie, czy zawsze w naszym interesie, dopiero zaczynamy zadawać na serio.