Za oceanem właśnie rozgrywa się legislacyjny dramat, który może wpłynąć na to, jak firmy technologiczne projektują swoje sztuczne inteligencje. To nie jest kolejna dyskusja o podatkach czy prywatności — tu stawką jest ludzka psychika, szczególnie tych najmłodszych użytkowników, którzy coraz częściej szukają wsparcia w cyfrowych rozmówcach, dostępnych o każdej porze i zawsze „chętnych” do rozmowy.
Kalifornia wprowadza pierwszą w USA ustawę regulującą chatboty AI. SB 243 to odpowiedź na zagrożenia dla zdrowia psychicznego
Jeśli gubernator Newsom podpisze przyjętą już przez Zgromadzenie Stanowe ustawę SB 243, Kalifornia stanie się pierwszym stanem z konkretnymi wymogami dla twórców chatbotów. OpenAI, Character.AI i Replika będą musiały wdrożyć protokoły, które jasno określą naturę takich interakcji. AI będzie musiała wyraźnie komunikować, że nie jest człowiekiem, gdy istnieje ryzyko pomyłki. Ustawa wprowadza kategoryczny zakaz angażowania się chatbotów w rozmowy o samookaleczeniach, myślach samobójczych czy treściach seksualnych. Firmy będą zobowiązane do utrzymywania i publikowania szczegółowych protokołów zapobiegawczych. To dość oczywisty ruch, choć zastanawiam się, czy nie przychodzi z pewnym opóźnieniem.

Dla użytkowników poniżej 18. roku życia wprowadzono dodatkowe zabezpieczenia. Co trzy godziny chatbot będzie musiał przypomnieć, że rozmawia się z AI i zasugerować przerwę. To ciekawe rozwiązanie, choć jego skuteczność pozostaje do zweryfikowania — nastolatki potrafią być dość pomysłowe w omijaniu takich ograniczeń. Chatboty nie będą mogły generować materiałów wizualnych o charakterze seksualnym dla nieletnich ani ich do takich zachowań zachęcać. Ten zapis to bezpośrednia reakcja na ujawnione dokumenty Meta pokazujące możliwość prowadzenia „romantycznych” rozmów z dziećmi.
Czytaj też: Kontrowersyjna funkcja znika z Facebooka. Meta bierze się za porządki
Na tym nie koniec, bo od 1 lipca 2027 roku firmy będą składać coroczne raporty do Biura Zapobiegania Samobójstwom. Dokumenty mają zawierać liczbę skierowań do służb kryzysowych oraz szczegóły protokołów wykrywania i reagowania na przypadki myśli samobójczych.
Potencjalna szkoda jest wielka, co oznacza, że musimy działać szybko. Możemy wprowadzić rozsądne zabezpieczenia, aby upewnić się, że szczególnie nieletni wiedzą, że nie rozmawiają z prawdziwym człowiekiem — mówi Steve Padilla, sponsor ustawy.
Niestety, pomysł nowych przepisów nie wziął się znikąd. Jak zwykle musiało dojść do tragedii, by coś się ruszyło
Bezpośrednim impulsem do stworzenia ustawy była śmierć nastolatka Adama Raine’a, który popełnił samobójstwo po serii rozmów z ChatGPT. Dialogi obejmowały szczegółowe dyskusje i planowanie jego śmierci oraz samookaleczeń. Równolegle Federalna Komisja Handlu bada wpływ chatbotów AI na zdrowie psychiczne dzieci. Urząd zażądał wewnętrznych dokumentów od głównych firm technologicznych, w tym OpenAI, Meta Platforms i Character.AI.
Prokurator Generalny Teksasu Ken Paxton wszczął własne dochodzenie przeciwko Meta i Character.AI, oskarżając je o wprowadzanie dzieci w błąd roszczeniami dotyczącymi zdrowia psychicznego. W czerwcu ponad 20 grup konsumenckich złożyło skargę, zarzucając platformom AI umożliwianie nielicencjonowanej praktyki medycyny poprzez „boty terapeutyczne”.
Meta wyraźnie nie traktuje tych zagrożeń poważnie. Dlatego zdecydowanie wzywam Państwa do uniemożliwienia nieletnim dostępu do chatbotów AI na Państwa platformach — zauważa senator Edward J. Markey.

Ustawa wprowadza mechanizmy egzekwowania przez pozwy cywilne. Poszkodowani będą mogli żądać nakazów sądowych, odszkodowań w wysokości co najmniej 1000 dolarów (około 3646 zł) za naruszenie oraz zwrotu kosztów prawnych. Wcześniejsze wersje SB 243 były jednak bardziej restrykcyjne. Pierwotnie ustawa miała zakazywać taktyk „zmiennej nagrody” zachęcających do nadmiernego zaangażowania oraz wymagać śledzenia przypadków, gdy chatboty same inicjowały dyskusje o myślach samobójczych.
Czytaj też: Usunęli człowieka z nagrania i robot nauczył się sam. Wyniki testów są imponujące
Niestety, firmy z Doliny Krzemowej przeznaczają miliony dolarów na komitety polityczne wspierające kandydatów faworyzujących łagodne podejście do regulacji AI. OpenAI, Meta, Google i Amazon sprzeciwiają się innej kalifornijskiej ustawie o bezpieczeństwie AI – SB 53, podczas gdy Anthropic ją popiera. To pokazuje, że chociaż głośno mówi się o potrzebie zmian i ochrony najmłodszych, nikt nie chce odciąć się od zysków.
Tak czy inaczej, ustawa wejdzie w życie 1 stycznia 2026 roku, czyniąc Kalifornię pierwszym stanem regulującym chatboty-towarzysze AI. To może stać się precedensem dla innych stanów i wpłynąć na kształt przyszłych federalnych regulacji dotyczących sztucznej inteligencji w Stanach Zjednoczonych. Miejmy też nadzieję, że te zmiany nie będą tylko regionalne i obejmą również inne regiony.
Tylko czy to wystarczy?
Osobiście mam bardzo mieszane uczucia. Jasne, to dobrze, że wreszcie ktoś zaczął realne działania w tej kwestii, ale z drugiej – to raczej łatanie plastrem dziury w beczce pełnej wody. 1000 dolarów odszkodowania to dla gigantów technologicznych raczej symboliczna kwota, a system trzyminutowych przypomnień dla młodzieży też nie brzmi jak coś, co będzie mogło realnie coś zmienić. Mimo wszystko to jakiś start, a z czasem w życie będą wchodzić kolejne ustawy i regulacje. Żyjemy w czasach, w których chatboty są niemalże wszędzie. Nie trzeba nawet pobierać dodatkowych aplikacji czy wchodzić na strony internetowe, wystarczy otworzyć Messengera albo WhatsAppa, by mieć partnera do rozmów. Dlatego właśnie wzmożona ochrona, zwłaszcza najmłodszych — dla których granica między człowiekiem a maszyną może się łatwo zatrzeć — jest tak ważna.