Meta, właściciel m.in. Facebooka i Instagrama, to firma, którą od lat otaczają kontrowersje związane z prywatnością i bezpieczeństwem danych
Gigant zmaga się z krytyką (całkiem słuszną nawiasem mówiąc) od bardzo dana. Co prawda cały czas próbuje przekonać nas, że nie ma się czego bać i kwestie prywatności są brane całkowicie na poważnie. Jak z tym jest w praktyce – każdy chyba wie. Słowa Mety to jedno, a to, co naprawdę dzieje się w serwisach, to coś zupełnie innego, o czym dobitnie mogą świadczyć liczne postępowania przeciwko gigantowi, prowadzone przez organy regulacyjne. Oczywiście nie można też powiedzieć, że sytuacja w ogóle nie ulega poprawie. Jest lepiej niż te kilka lat temu, ale zmiany dokonując się dość wolno.
Może właśnie dlatego Meta tak stara się teraz wyjaśniać wszystko, co tylko może budzić obiekcje. Niedawno firma przybliżała nam zasady działania rekomendacji na Instagramie, a teraz postanowiła przybliżyć to, w jaki sposób sztuczna inteligencja wpływa na to, co widzimy w aplikacjach. Oba tematy się ze sobą łączą, ale wcześniej Meta nie wdawała się w te szczegóły, opisując raczej składowe algorytmów odpowiedzialnych za rekomendowanie treści użytkownikom.
Biorąc pod uwagę szybki postęp w zakresie potężnych technologii, takich jak generatywna sztuczna inteligencja, zrozumiałe jest, że ludzie są zarówno podekscytowani możliwościami, jak i zaniepokojeni ryzykiem. Uważamy, że najlepszym sposobem reagowania na te obawy jest otwartość. Jest to część szerszego etosu otwartości, przejrzystości i odpowiedzialności – powiedział prezes Meta ds. Globalnych, Nick Clegg.
22-stronicowy dokument zawiera informacje na temat kanałów, Stories, Rolek i innych sposobów, w jaki rudzie odkrywają i konsumują treści na platformach społecznościowych należących do Mety. Opisano tam szczegółowo, jak stojące za nimi systemy sztucznej inteligencji klasyfikują i rekomendują treści.
Na przykład sekcja poświęcona funkcji wyszukiwania na Instagramie opisuje, w jaki sposób aplikacja gromadzi wszystkie odpowiednie wyniki wyszukiwania w odpowiedzi na zapytanie użytkownika, ocenia każdy wynik na podstawie wcześniejszych interakcji użytkownika z aplikacją, a następnie stosuje „dodatkowe filtry” i „procesy integralności”, aby zawęzić listę przed ostatecznym przedstawieniem jej użytkownikowi. Dlatego właśnie na samym początku wyświetlają nam się te, a nie inne wyniki. Podobnie działa to w przypadku Rolek, Stories czy karty Odkrywaj. Użytkownicy mogą sami wpływać na ten proces, poprzez zapisywanie treści (to pokazuje systemowi, że powinien pokazywać im podobne posty) lub oznaczanie innych jako „nieinteresujące”, dzięki czemu SI dostaje sygnał, że powinna podsuwać mniej podobnych treści w przyszłości.
Trzeba też wspomnieć, że Mata w najbliższych tygodniach rozszerzy dostępność funkcji „Dlaczego to widzę?”, zarówno na Facebooku, jak i Instagramie. Dzięki niej będziemy mogli dowiedzieć się na konkretnym przykładzie – Rolki, Stories czy Relacji – w jaki sposób nasza dotychczasowa aktywność wpłynęła na to, że system podsunął nam ten właśnie materiał.
Gigant stawia na przejrzystość
W przeszłości Meta była krytykowana za to, że nie zapewnia naukowcom wystarczającego dostępu do danych. Dlatego, by więcej nie narażać się na takie zarzuty, gigant rozpocznie w nadchodzących tygodniach wdrażanie swojej biblioteki treści i interfejsu API, nowego zestawu narzędzi dla badaczy, który będzie zawierał szereg publicznych danych z Instagrama i Facebooka. Będą oni mogli przeszukiwać, eksplorować i filtrować dane, oczywiście po uprzednim otrzymaniu dostępu do tych narzędzi.
Wygląda na to, że Meta chciała ubiec organy regulacyjne, które w odpowiedzi na gwałtowny rozwój i coraz większą popularność sztucznej inteligencji, wyrażają coraz większe zaniepokojenie sposobem, w jaki systemy te zarządzają i wykorzystują dane osobowe. Pojawiają się kolejne regulacje prawne i można być pewnym, że to dopiero początek. Działania Mety mają więc charakter bardzo prewencyjny, a na dodatek mogą zapewnić gigantowi swego rodzaju spokój. Przynajmniej na razie, bo w centrum uwagi znajdują się obecnie o wiele więksi gracze – OpenAI, Microsoft i Google. Dlatego właśnie lepiej od razu stawiać na przejrzystość i oddalić od siebie ewentualne zarzuty, zanim te zostaną w ogóle sformułowane.