Na papierze wygląda to imponująco: większa kontrola rodzicielska, lepszy nadzór nad aktywnością dzieci, większa transparentność działania algorytmów i nowe systemy weryfikacji wieku oparte na AI. Tylko że im dłużej patrzy się na te rozwiązania, tym trudniej oprzeć się wrażeniu, że Meta próbuje przede wszystkim przerzucić odpowiedzialność na rodziców.
Family Center ma stać się centrum dowodzenia dla całego ekosystemu Mety
Największą zmianą jest rozbudowa Family Center, czyli panelu kontroli rodzicielskiej. Do tej pory wszystko było mocno porozrzucane między Instagramem, Messengerem, Facebookiem czy Meta Horizon. Teraz firma chce zamienić to w jeden wspólny system zarządzania. Rodzic ma dostać jeden panel do nadzorowania wszystkich kont dziecka jednocześnie. Jedno zaproszenie ma wystarczyć do połączenia całego ekosystemu, a w kolejnych miesiącach pojawi się nawet zbiorczy licznik czasu spędzanego we wszystkich aplikacjach Mety razem.
Uczciwie trzeba przyznać — pod względem technicznym to ma sens. Dzisiejsze życie cyfrowe dzieci nie kończy się przecież na jednej aplikacji. Problem polega na tym, że Meta zaczyna przedstawiać rodziców niemal jako operatorów centrum monitoringu odpowiedzialnych za pilnowanie każdego aspektu aktywności dziecka w sieci.

W dodatku, firma chce pokazywać rodzicom, czym algorytm „karmi” ich dziecko. Meta zaczyna częściowo odsłaniać mechanizmy rekomendacji Instagrama. Rodzice mają zobaczyć listę tematów i zainteresowań wpływających na sekcje Reels oraz Explore ich dziecka. Jeśli nastolatek zacznie interesować się nową kategorią treści, system wyśle opiekunowi powiadomienie.
Brzmi niewinnie, dopóki człowiek nie uświadomi sobie, jak ogromną władzę mają dziś algorytmy rekomendacji nad psychiką młodych ludzi. Instagram od lat jest projektowany tak, by maksymalnie długo utrzymywać uwagę użytkownika. Algorytm analizuje praktycznie wszystko: zatrzymania scrolla, czas oglądania, reakcje emocjonalne, tempo interakcji czy nawet to, do jakiego filmu wracamy kilka razy. Meta doskonale wie, jak budować cyfrową pętlę dopaminy.

Teraz natomiast, zamiast realnie ograniczać agresywność tych mechanizmów, firma mówi rodzicom: „proszę bardzo, oto panel diagnostyczny, teraz sami analizujcie, co dzieje się z waszym dzieckiem”. To trochę przypomina sytuację, w której kasyno rozdaje rodzinom broszurę o uzależnieniu od hazardu, ale jednocześnie dalej projektuje automaty tak, żeby maksymalnie trudno było od nich odejść.
Najbardziej dystopijnie brzmi jednak analiza… budowy kości
Czy to koniec? Oczywiście, że nie, bo Meta jeszcze bardziej inwestuje w nowe metody weryfikacji wieku użytkowników. Tylko że metody mogą budzić spore kontrowersje. Nowe algorytmy AI mają bowiem analizować zdjęcia i nagrania użytkowników pod kątem cech fizycznych sugerujących wiek. Mowa między innymi o proporcjach twarzy, wzroście, linii żuchwy czy ogólnej budowie kości.
Firma podkreśla, że nie chodzi o klasyczne rozpoznawanie twarzy, tylko szacowanie dojrzałości fizycznej użytkownika. Technicznie to faktycznie różnica. Z perspektywy przeciętnego człowieka brzmi to jednak jak fragment cyberpunkowego thrillera, a nie standardowa funkcja Instagrama. Zwłaszcza w Europie może to wywołać gigantyczną dyskusję o prywatności i granicach analizy biometrycznej.
Problem polega też na tym, że AI regularnie myli się przy ocenie wieku ludzi. Internet już teraz jest pełen historii dorosłych osób blokowanych przez automatyczne systemy „ochrony nieletnich” albo nastolatków wyglądających znacznie dojrzalej niż wskazywałaby metryka.
Meta nadal zarabia dokładnie na tym samym
Nie zrozumcie mnie źle, od zawsze twierdzę, że wszystkie funkcje, mające chronić dzieci w sieci są bardzo potrzebne. Niestety, dobrze by było, gdyby nie były jedynie próbą mydlenia oczu, tylko realnym działaniem, a takowe powinno obejmować przyczyny problemu. W tym przypadku Meta chce wyglądać na firmę odpowiedzialną społecznie, ale jej model biznesowy praktycznie się nie zmienia. Nadal chodzi o maksymalizowanie czasu spędzanego na platformie, utrzymywanie uwagi użytkownika i generowanie zaangażowania pod reklamy.
Family Center może być wygodne. Wspólny panel kontroli faktycznie brzmi sensownie. Lepsza ochrona nastolatków też jest potrzebna. Tyle że żadne z tych narzędzi nie zmienia podstawowego problemu: algorytmy wciąż są projektowane tak, żeby użytkownikowi jak najtrudniej było odłożyć telefon. Dlatego cały ten ruch przypomina trochę gaszenie pożaru szklanką wody. Ładnie wygląda na konferencji prasowej, ale źródło ognia nadal płonie dokładnie tam, gdzie wcześniej.
Źródło:Meta
