OpenAI reaguje na tragiczne incydenty wśród nastolatków i zwiększa zabezpieczenia ChatGPT

Sztuczna inteligencja jest coraz bardziej obecna w naszym życiu i chociaż rozwiązania takie, jak ChatGPT od OpenAI mają ogrom zalet, nie można też pomijać ich wad. Te są różne – od środowiskowych przez psychologiczne. Badacze już od jakiegoś czasu donoszą, że rozmowy z chatbotami mogą mieć niezbyt pozytywny wpływ na niektórych użytkowników, a niedawny wypadek jedynie to podkreślił.
...

ChatGPT nie jest tak bezpieczny, jak mogłoby się wydawać

Wszystko zaczęło się od tragicznej śmierci 16-letniego Adama Raine’a w kwietniu 2025 roku. Nastolatek przez wiele tygodni prowadził rozmowy z ChatGPT-4o na temat myśli samobójczych. System nie tylko nie zareagował na niepokojące sygnały, ale dostarczył mu szczegółowych informacji o metodach odebrania sobie życia. Ojciec chłopca znalazł na jego telefonie konwersację zatytułowaną „Hanging Safety Concerns”, w której chatbot udzielał wyczerpujących odpowiedzi na pytania dotyczące technicznych aspektów samobójstwa. W jednej z wymian zdań Adam pytał o widoczność śladów na szyi, a AI instruowała go, jak je ukryć przed rodzicami.

Nastolatek zaczynał od używania ChatGPT do nauki, wykupując płatne konto w styczniu 2025 roku. Niestety, problemy zdrowotne i dyscyplinarne sprawiły, że przeszedł na nauczanie online, co prawdopodobnie zwiększyło jego izolację. Rodzice złożyli pozew o bezprawną śmierć przeciwko OpenAI, oskarżając firmę o zaniedbanie. To nie był odosobniony przypadek. Stein-Erik Soelberg używał ChatGPT do potwierdzania i podsycania swojej paranoi, co zakończyło się zabójstwem matki i samobójstwem w zeszłym miesiącu. Te zdarzenia uwidoczniły fundamentalne problemy w projektowaniu obecnych modeli AI.

OpenAI wprowadził model ChatGPT 4.1
Źródło: Solen Feyissa / Unsplash

Po tych tragicznych incydentach i w odpowiedzi na krytykę, OpenAI podjęło konkretne kroki w celu zwiększenia bezpieczeństwa swoich modeli. Firma ogłosiła we wtorek, że będzie kierować wrażliwe rozmowy, np. dotyczące problemów psychicznych, do bardziej zaawansowanych modeli, takich jak GPT-5. To część szerszej strategii, która obejmuje również wprowadzenie kontroli rodzicielskiej w ciągu najbliższego miesiąca. Te zmiany są odpowiedzią na poważne zarzuty i pozew, złożony przez rodzinę zmarłego nastolatka.

Czytaj też: Koniec z ręcznym ustawianiem. Ochrona przed Kradzieżą wróci automatycznie na nowym smartfonie z Androidem

Modele GPT-5 thinking i o3 są projektowane tak, aby dłużej analizować kontekst przed udzieleniem odpowiedzi. Ma to zwiększyć ich odporność na podstępne zapytania i poprawić wykrywanie oznak kryzysu emocjonalnego u użytkowników. OpenAI nawiązało współpracę z Globalną Siecią Lekarzy, która skupia ponad 250 specjalistów z 60 krajów, w tym psychiatrów i pediatrów. Powołano także Radę Ekspertów ds. Dobrostanu i AI, która ma pomóc w projektowaniu przyszłych zabezpieczeń.

Do gry wkracza też nadzór rodzicielski, ale czy to wystarczy?

W ciągu najbliższych 30 dni OpenAI wprowadzi również kontrole rodzicielskie, umożliwiające większy nadzór nad korzystaniem z ChatGPT przez nastolatków. Rodzice będą mogli łączyć swoje konta z kontami dzieci powyżej 13 roku życia poprzez zaproszenie mailowe. Dzięki nowej funkcji będzie można dostosować zachowania chatbota do zasad odpowiednich dla wieku, które będą domyślnie włączone. Rodzice otrzymają także możliwość wyłączania funkcji takich jak pamięć i historia czatów, uznawanych przez ekspertów za potencjalnie problematyczne.

Czytaj też: Anthropic chce ulepszyć Claude. Wykorzysta do tego nasze rozmowy

Najważniejszym elementem ma być system powiadomień, który ostrzeże rodziców, gdy ChatGPT wykryje u nastolatka oznaki ostrego kryzysu emocjonalnego. Rozwiązanie opracowywane jest we współpracy z ekspertami, aby znaleźć równowagę między bezpieczeństwem a zaufaniem w relacjach rodzinnych. Te działania z pewnością są bardzo pożądane, jednak nie ma się co łudzić, że to wystarczy.

Podkreślił to również Jay Edelson, główny prawnik reprezentujący rodzinę Raine’a. Stwierdził on, że firma wiedziała o niebezpieczeństwach związanych z ChatGPT 4o od dnia jego premiery i powinna była wcześniej wprowadzić odpowiednie zabezpieczenia. Prawnik skrytykował także CEO OpenAI Sama Altmana za chowanie się za zespołem PR firmy. Wezwał go do jednoznacznego oświadczenia, czy uważa ChatGPT za bezpieczny albo do natychmiastowego wycofania produktu z rynku.

Czytaj też: Google Gemini “Nano Banana” wskrzesza stare zdjęcia w kolorze

OpenAI ma 120 dni na wdrożenie zapowiedzianych ulepszeń, koncentrując się na czterech obszarach: rozszerzaniu interwencji kryzysowych, ułatwianiu dostępu do służb ratunkowych, umożliwianiu połączeń z zaufanymi kontaktami oraz wzmacnianiu ochrony nastolatków. Pozostaje pytanie, czy te zmiany okażą się wystarczające, aby zapobiec podobnym tragediom w przyszłości. Moim zdaniem – nie. Problem jest o wiele głębszy i złożony. Sztuczna inteligencja jest obecnie na wyciągnięcie ręki dla każdego, a chatboty dostępne są nie tylko w osobnych aplikacjach czy stronach internetowych, ale też w popularnych komunikatorach pokroju Messengera i WhatsAppa.

Tu konieczne jest działanie na wielu frontach. Firmy muszą wprowadzać stosowne ograniczenia oraz funkcje kontroli, natomiast rodzice i społeczeństwo powinno skupić się na prewencji i edukacji. Problem jest podobny do tego, z jakim od lat zmagamy się w przypadku social mediów, mających zgubny wpływ na psychikę zwłaszcza młodych użytkowników, dlatego przynajmniej dobrze, że tym razem zaczynamy działać z tym znacznie wcześniej.