Apple będzie walczył z pornografią dziecięcą. Co z prywatnością użytkowników sprzętu?

Apple będzie automatycznie rozpoznawał pornografię dziecięcą na urządzeniach użytkowników i ją zgłaszał. Mimo wszystko to kontrowersyjna decyzja. Dlaczego?

Koncern Apple ogłosił, że każde zdjęcie na iPhone’ach i iPadach tej firmy będzie automatycznie kontrolowane. Algorytmy sprawdzą je pod kątem seksualnego wykorzystywania nieletnich. Algorytm neuralMatch, który do tego posłuży, nie będzie oglądał zdjęć. Będzie porównywać ze sobą ciągi znaków, które przypisywane są do każdego zdjęcia zapisywanego na urządzeniu (tak zwane hasze). Takie ciągi będzie porównywać ze zgłoszonymi  do organizacji walczących z pornografią dziecięcą w sieci. 

Gdy natrafi na urządzeniu użytkownika na zdjęcie zgłoszone już organizacjom jako podejrzane, trafi ono do weryfikacji przez zespół ludzi. Oni również nie będą oglądać obrazów, tylko sprawdzać, czy ciągi znaków przypisane do obu zdjęć rzeczywiście są identyczne. Jeśli tak, Apple zgłosi to do National Center for Missing and Exploited Children (NCMEC), organizacji walczącej z wykorzystywaniem nieletnich. Organizacja powiadomi policję, a ta zdecyduje, czy wystąpić do sądu o nakaz ujawnienia zdjęć i tożsamości właściciela urządzenia. 

Rozpoznawanie ma zostać wbudowane w aktualizację systemów operacyjnych iOS oraz iPadOS jeszcze w tym roku. 

Apple nie był zbyt gorliwy w swoich dotychczasowych wysiłkach  

Rozwiązanie, które zamierza wprowadzić Apple, pochwalają organizacje walczące z wykorzystywaniem dzieci. Firma nie była dotąd zbyt gorliwa w swoich wysiłkach. Podczas gdy Facebook zgłasza organom ścigania miliony takich obrazów każdego roku, Apple zgłaszało zaledwie kilka. Dlaczego? 

Apple szczególny nacisk położył na ochroną prywatności użytkowników. Model biznesowy firmy opiera się na sprzedaży wysokiej jakości urządzeń i usług, a nie zbieraniu danych. Dawno temu zdecydowano więc, że wiadomości i obrazy na urządzeniach tej firmy będą szyfrowane. Firma nie ma do nich dostępu. Porównywanie numerów seryjnych zdjęć jest rozsądnym (i jedynym możliwym technicznie) rozwiązaniem. 

Jednocześnie neuralMatch zaniepokoił organizacje zajmujące się prywatnością oraz badaczy. Wystosowały nawet list otwarty z apelem o wycofanie się z pomysłu. Komentują, że jest to niebezpieczny precedens, który otwiera furtkę do inwigilacji. 

Apple uchyla drzwi do inwigilacji 

Można bowiem wyobrazić sobie sytuację, w której bez wiedzy użytkownika porównywane są numery seryjne zdjęć pod zupełnie innym kątem. Wyobraźmy sobie, że możliwość śledzenia obrazów, na których widnieją antyrządowe zgromadzenia i hasła, dostają na przykład białoruskie albo chińskie władze. 

Apple w swoich dokumentach opublikowanych w internecie twierdzi, że nie zgodzi się na żądania żadnych władz, by wykorzystać technologię w innym celu niż walka z wykorzystywaniem dzieci. Ale eksperci uważają, że Apple uchyla drzwi, które ustawodawcy i rządy z czasem wyważą. 

– Wszyscy zgadzamy się, że wykorzystywanie dzieci stanowi poważny problem. Ale tylko kwestią czasu jest, zanim ustawodawcy i rządy zaczną wykorzystywać tę technologię do ograniczania wolności słowa i filtrowania niechcianych treści – mówi Erica Portnoy z Electronic Frontier Foundation. Nie muszą być to treści polityczne. Nie byłby to zresztą pierwszy raz, kiedy Apple ugiąłby się pod naciskami. W Arabii Saudyjskiej na żądanie tamtejszych władz usuwał już aplikację FaceTime, która pozwala na szyfrowane przesyłanie wiadomości, zdjęć i filmów. „New York Times” wykrył też, że – także pod naciskiem władz – wersje oprogramowania instalowane na urządzeniach przeznaczonych do sprzedaży w Chinach nie chronią prywatności tak dobrze, jak w innych krajach. 

Jest też inna obawa. Co jeśli neuralNet się pomyli?  

Aplle twierdzi, że neuralNet będzie się mylił „rzadziej niż w jednym przypadku na bilion”. Nie podaje jednak, skąd taka akurat liczba, zauważa Jonathan Mayer z Princeton University, który bada kwestię prywatności danych oraz niezawodności sieci neuronowych.  

Naukowiec dodaje, że nie ma biliona użytkowników usługi iCloud, więc firma nie mogła przeprowadzić wiarygodnych statystycznie testów. Jest też rozczarowany, że mimo zastrzeżeń naukowców Apple zdecydował się na wdrożenie systemu. I choć firma przyznaje, że istnieje ryzyko fałszywych alarmów, nie wytłumaczyła, jak zamierza je wyeliminować. 

Jest to zresztą coraz częściej dostrzegany problem. Algorytmy pozostają tajemnicami firm, które je wykorzystują. Nawet gdy koncerny publikują prace naukowe dotyczące osiągnieć swoich rozwiązań, nie są też zbyt skłonne do odkrywania kodu źródłowego. Nikt nie może ich poddać niezależnym testom. 

Źródło: New Scientist.