Chatboty AI mają wiele zalet, jednak jak to zwykle bywa, mają też swoje wady
Zgodnie z raportem “Me, Myself and AI“, najpopularniejszymi chatbotami wśród dzieci są ChatGPT (43%), Google Gemini (32%) oraz My AI od Snapchata (31%). Co szczególnie niepokojące, dzieci znajdujące się w grupie ryzyka (71%) częściej korzystają z chatbotów AI niż ich rówieśnicy bez takich problemów (62%). Dzieci te były również prawie trzykrotnie bardziej skłonne do używania botów towarzyszących, takich jak Character.ai czy Replika.
Czytaj też: Chatboty AI a zdrowie psychiczne. Czy grozi nam kolejny kryzys?
Wzrost popularności AI wśród dzieci przypomina boom na media społecznościowe, jaki miał miejsce bliżej początku wieku. Różnica polega na tym, że rządy wydają się bardziej świadome zagrożeń związanych z AI i naciskają na firmy, aby wdrażały zabezpieczenia w większości botów – choć te zabezpieczenia nie są idealne. W przypadku social mediów obudziliśmy się z przysłowiową „ręką w nocniku”, więc to szczególnie ważne, by nie popełnić tych samych błędów z AI i zadziałać szybciej.
Na pozór sztuczna inteligencja postrzegana jest przez pryzmat jej użyteczności w zwiększaniu produktywności w pracy lub do zwykłej zabawy, jak generowanie obrazków itp. Jednak nie można zapominać też o innym, coraz popularniejszym wykorzystaniu – emocjonalnym. Użytkownicy szukają u AI przyjaźni lub porad. O ile jednak dorośli mają jeszcze na tyle dużą wiedzę, by zdawać sobie sprawę, jakie może mieć to skutki, o tyle z dziećmi nie jest tak łatwo. Raport wskazuje, że jedna czwarta dzieci zasięgała porad od botów, a jedna trzecia stwierdziła, że rozmowa z AI przypomina rozmowę z przyjacielem. Wśród dzieci w grupie ryzyka te liczby wzrastają aż do połowy.
Szczególnie alarmujące jest to, że jedno na osiem badanych dzieci korzysta z chatbotów AI, ponieważ nie ma z kim porozmawiać. Wśród dzieci w grupie ryzyka ta liczba wzrasta do jednego na cztery. Jednym z najbardziej palących problemów jest ryzyko otrzymania przez dzieci niedokładnych lub nieodpowiednich odpowiedzi. Aż 58% dzieci uważa, że korzystanie z chatbota AI jest lepsze niż ręczne wyszukiwanie informacji w Google, co rodzi obawy o nadmierne poleganie na tych technologiach. Testy użytkowników wykazały, że My AI od Snapchata i ChatGPT czasami dostarczały treści jawne lub nieodpowiednie dla wieku, a systemy filtrowania mogły zostać ominięte.

Eksperci cytowani w raporcie ostrzegają, że w miarę jak AI będzie stawała się coraz bardziej ludzka, dzieci, zwłaszcza te bardziej wrażliwe, mogą spędzać z nią więcej czasu, co może prowadzić do niezdrowego uzależnienia emocjonalnego od tych botów. AI jest na wyciągnięcie ręki, za rozmowy nie musimy nic płacić i w taką „relację” nie trzeba również inwestować czasu oraz zaangażowania, jak to jest w przypadku drugiej osoby. Sztuczna inteligencja nie wymaga od nas dzwonienia do niej, umawiania się na spotkania, zawsze ma czas, zawsze wysłucha. W niektórych przypadkach to zaleta, bo np. już teraz chatboty AI testowane są jako wsparcie w terapii, ale mówimy tu o kontrolowanych warunkach, a nie sytuacjach, gdy dziecko rozmawia sobie z chatbotem o czymkolwiek chce, coraz bardziej angażując się w te rozmowy emocjonalnie.
Tutaj dużą rolę odgrywa brak odpowiedniego nadzoru ze strony dorosłych. Choć większość dzieci rozmawiała z rodzicami o AI, tylko jedna trzecia rodziców omówiła kwestię dokładności informacji generowanych przez AI, mimo że dwie trzecie rodziców chciało to zrobić. Dodatkowo, mimo że dzieci popierają pomysł nauczania w szkołach o korzystaniu z chatbotów AI, w tym o ryzykach takich jak niedokładność, nadmierne poleganie i prywatność, tylko 57% dzieci zgłosiło rozmowy z nauczycielami lub w szkole na temat AI. Zaledwie 18% odbyło wiele takich rozmów.
Raport Internet Matters jest wyraźnym sygnałem alarmowym, podkreślającym rosnące emocjonalne zaangażowanie dzieci w interakcje z chatbotami AI i związane z tym ryzyka. Aby zapewnić bezpieczeństwo najmłodszym w cyfrowym świecie, konieczne jest systemowe podejście, angażujące przemysł, rządy, szkoły, rodziców i badaczy. Branża powinna zapewniać narzędzia kontroli rodzicielskiej i funkcje wspierające cyfrową świadomość, rządy – odpowiednie regulacje, a szkoły – włączyć edukację o AI i mediach w program nauczania. Rodzice natomiast potrzebują wsparcia, aby móc świadomie kierować użyciem AI przez swoje dzieci i rozmawiać o jej bezpiecznym i zdrowym wykorzystaniu.