powrót
Focus na życie w dobrym stylu
  • Najnowsze
  • Aktywność
  • Dom i ogród
  • Moda i uroda
  • Zdrowie

Focus na życie w dobrym stylu. Lifestyle'owy magazyn o zdrowiu, domu, podróżach, kulturze i relacjach - codziennie o tym, co realnie wpływa na jakość życia.

FacebookPlatforma XYoutubeInstagram

Nasze tematy

  • Najnowsze
  • Aktywność
  • Dom i ogród
  • Moda i uroda
  • Zdrowie
  • Parenting
  • Podróże
  • Kultura
  • Promocje
  • Styl życia
  • Pupile
  • Nauka

Redakcja

  • Polityka prywatności
  • Redakcja
  • Kontakt

© 2026 focus.pl. Wszystkie prawa zastrzeżone.

theprotocol.it
Zdrowie

Kiedyś Internet wiedział, jakie kupuję buty. Dziś ChatGPT wie, kiedy płaczę i chce mówić o tym moim bliskim

Jeszcze kilka lat temu wizja AI analizującego nasze emocje i alarmującego bliskich w razie zagrożenia brzmiałaby dla mnie jak odcinek „Black Mirror”. Dziś staje się rzeczywistością. Żyjemy w czasach, w których to nie ludzki przyjaciel czy członek rodziny staje się naszym powiernikiem, a sztuczna inteligencja. Skala tego musi być na tyle ogromna, że OpenAI pracuje nad funkcją, dzięki której ChatGPT będzie mógł powiadomić wskazaną wcześniej osobę, jeśli wykryje u użytkownika myśli samobójcze lub sygnały poważnego kryzysu psychicznego.

J
Joanna Marteklas
1h temu·6 minut·
Kiedyś Internet wiedział, jakie kupuję buty. Dziś ChatGPT wie, kiedy płaczę i chce mówić o tym moim bliskim
Chcesz czytać więcej treści jak „Kiedyś Internet wiedział, jakie kupuję buty. Dziś ChatGPT wie, kiedy płaczę i chce mówić o tym moim bliskim"?Dodaj Focus.pl do preferowanych źródeł w Google

I właśnie w momencie, gdy AI zaczyna być przedstawiane jako cyfrowe koło ratunkowe, pojawia się drugi problem: badacze alarmują, że popularne chatboty są jednocześnie oplecione systemami śledzenia reklamowego. To dość surrealistyczny moment dla internetu. Z jednej strony ludzie coraz częściej traktują AI jak terapeutę, dzieląc się z nim najintymniejszymi myślami. Z drugiej — ta sama infrastruktura technologiczna nadal funkcjonuje w świecie trackerów, cookiesów i analizy danych.

ChatGPT chce kontaktować się z naszymi bliskimi

Sztuczna inteligencja zaczęła być dla nas przyjacielem. Gdzieś po drodze między lepszym kodowaniem a coraz bardziej zaawansowanym tworzeniem grafiki zobaczyliśmy, że tak naprawdę nie potrzebujemy w swoim życiu kolejnego inteligentnego narzędzia, które wszystko będzie robić za nas. Zamiast tego potrzebujemy po prostu kogoś do rozmowy o wszystkim – od hobby, przez problemy w pracy, a na problemach psychicznych kończąc. I chociaż niektórym może wydawać się to dziwne, dla wielu ludzi „relacja” z AI jest jedyną, na którą ich w życiu stać. Nie wymaga czasu, aranżowania spotkań i co najważniejsze – nie ocenia i nie mówi o sobie. Jasne, brzmi to egoistycznie, jednak czasem, jeśli ktoś ma dużo własnych problemów, nie jest już w stanie udźwignąć też cudzych.

Już kilka razy pisałam o tym, że AI zaczyna w naszym życiu zastępować ludzkie interakcje, zwłaszcza w sytuacjach związanych ze zdrowiem psychicznym. Zamiast iść do terapeuty, wylewamy swoje myśli w okienko ChataGPT. I najwyraźniej robimy to na tyle często, by OpenAI chciało podjąć w tym kierunku jakieś kroki. Już wcześniej, gdy AI wykrywało oznaki kryzysu psychicznego u użytkownika, podsyłało kontakt do lokalnych specjalistów – m.in. telefon do całodobowej linii wparcia itp.

Chyba to wciąż było za mało, bo teraz OpenAI przygotowało funkcję „Trusted Contact”, czyli zaufane kontakty. Ma ona działać całkowicie opcjonalnie, a użytkownik będzie mógł wskazać zaufaną dorosłą osobę, która otrzyma alert, jeśli system uzna, że rozmowa sugeruje realne zagrożenie. Co ważne, firma podkreśla, że decyzji nie będzie podejmować wyłącznie algorytm. Jeśli AI wykryje niepokojące sygnały, rozmowa ma trafić do specjalnie przeszkolonego zespołu recenzentów, którzy ocenią sytuację i zdecydują, czy kontakt faktycznie powinien zostać powiadomiony.

Co istotne – zaufana osoba nie dostanie pełnego zapisu rozmowy, a jedynie informację, że warto skontaktować się z użytkownikiem. Z kolei on sam ma zostać o tym uprzedzony przed wysłaniem alertu. I szczerze? To jedna z najbardziej skomplikowanych etycznie funkcji AI, jakie widziałam od dawna. Z jednej strony, wydaje się bardzo potrzebna. Stoimy u progu kolejnego kryzysu psychicznego i być może jest to sposób na choć częściowe jego złagodzenie. Jest bowiem szansa, że w ten sposób ktoś otrzyma pomoc na czas. Jednak każdy kij ma dwa końce

Ludzie już traktują AI jak emocjonalnego powiernika

Tutaj wchodzi drugi, dużo bardziej niepokojący wątek. Badacze z IMDEA Networks Institute ujawnili, że popularne chatboty AI — w tym ChatGPT, Claude, Grok czy Perplexity — korzystają z mechanizmów śledzenia powiązanych z gigantami reklamowymi pokroju Mety, Google czy TikToka. W praktyce oznacza to, że rozmowy prowadzone z AI wcale nie funkcjonują w całkowicie odizolowanej „bańce prywatności”, jak niektórzy w to wierzą.

Linki do naszych rozmów mogą wyciekać, dane są przekazywane przez trackery reklamowe, a konkretną aktywność można powiązać z danym użytkownikiem. I właśnie to robi się naprawdę dziwne. Do tej pory internet śledził głównie nasze działania w zakresie zakupów, zainteresować czy szeroko pojętych produktów. Dziś natomiast wchodzimy na zupełnie inny poziom, bo dzielimy się z AI czymś bardziej intymnym. Tak naprawdę wylewamy często w okienku czatu naszą duszę.

Mam wrażenie, że teraz zaczynamy przekraczać bardzo ważną granicę. Jeszcze niedawno chatbot był dla większości osób ciekawostką albo wyszukiwarką „w nowej formie”. Dziś coraz więcej ludzi rozmawia z AI codziennie, szukając tam wsparcia emocjonalnego, opowiadając o problemach w pracy i traktując model jak bezpieczne miejsce do wyrzucenia z siebie emocji.

Chyba dlatego funkcja „Trusted Contact” jest jednocześnie tak fascynująca i tak niepokojąca. Bo OpenAI samo przyznaje między wierszami coś bardzo ważnego: AI przestało być zwykłym narzędziem.

Skoro chatbot ma oceniać stan psychiczny użytkownika i decydować, czy należy alarmować bliskich, to wchodzimy w obszar, który jeszcze niedawno kojarzył się wyłącznie z relacjami międzyludzkimi albo specjalistyczną opieką. Dochodzimy w ten sposób do momentu, w którym dla nas AI staje się najbardziej prywatną przestrzenią nie tylko internetu, ale i życia, podczas gdy dla firmy to nadal maszynka do zarabiania pieniędzy. Nawet jeśli nie płacimy pieniędzmi, robimy to za pomocą danych.

Największy problem? Nadal nie wiemy, komu właściwie powierzamy swoje sekrety

Tu właśnie pojawia się najbardziej niepokojąca kwestia. Nie sama funkcja alarmowania bliskich, bo ona w teorii może naprawdę komuś pomóc. Chodzi bardziej o fakt, że internet jednocześnie zachęca nas do coraz bardziej intymnych rozmów z AI, a potem okazuje się, że cała ta infrastruktura nadal funkcjonuje w ekosystemie zbierania danych i reklamowego śledzenia użytkowników.

To bardzo dziwne zderzenie dwóch światów — AI próbuje być naszym emocjonalnym wsparciem, a internet nadal traktuje emocje jak kolejną kategorię danych do analizy.

Niestety, większość ludzi jeszcze nie do końca rozumie, jak bardzo zmieniła się nasza relacja z technologią. Bo kiedyś internet wiedział głównie, jakie buty chcemy kupić. Dziś coraz częściej wie też, czego się boimy, kiedy płaczemy i co mówimy, gdy wydaje nam się, że nikt nie słucha. Jednak tego zawsze ktoś słucha, nawet jeśli nie człowiek. Przekuwanie naszych najintymniejszych sekretów w reklamy wydaje się moralnie obrzydliwe, ale… nikt przecież nie każe nam tego robić. OpenAI nie mówi: „ChatGPT to bezpieczne miejsce dla twoich trosk”.

Firma po prostu reaguje na to, co się dzieje. Realnie patrząc, nie może nagle wyłączyć tych wszystkich mechanizmów śledzenia, bo by się nie utrzymała. Nie może też nie reagować na wyraźny problem, bo tu z kolei zostałaby masowo skrytykowana. Dlatego wcześniej wprowadziła notyfikacje o miejscach, gdzie szukać profesjonalnej pomocy, a teraz szykuje funkcję Zaufane kontakty. OpenAI działa na tym co ma, czyli na tym, co sami jej dajemy.

Moim zdaniem jedynym (choć nadal częściowym) wyjściem z tej patowej sytuacji jest edukacja. Uczenie ludzi o tym, co się dzieje ze wszystkim, co piszą w okienkach chatów. Jak te dane są przetwarzane i wykorzystywane. Tylko że… niestety, wydaje mi się również, że to i tak niewiele zmieni. Zawsze znajdą się osoby, których życie na tyle jest ciężkie, że będzie im wszystko jedno, bo i tak nie mają nikogo bliskiego, z kim mogą porozmawiać. Więc nawet jeśli ChatGPT potem zmieni ich troski w reklamy, to co z tego, skoro na moment znajdą wytchnienie?

Spodobał Ci się ten artykuł?

Daj znać autorowi — kliknij wielokrotnie.

Chcesz czytać więcej treści jak „Kiedyś Internet wiedział, jakie kupuję buty. Dziś ChatGPT wie, kiedy płaczę i chce mówić o tym moim bliskim"?Dodaj Focus.pl do preferowanych źródeł w Google
Udostępnij
FacebookX