Reklama

Social media

Apple w ogniu krytyki za CSAM. „To forma cenzury”

Fot.: Omar Al-Ghosson/Unsplash
Fot.: Omar Al-Ghosson/Unsplash

Ponad 90 organizacji i grup zajmujących się ochroną danych w sieci zgłosiło zastrzeżenia dotyczące planowanego przez Apple wprowadzenia systemu CSAM, mającego wykrywać w ekosystemie producenta zdjęcia z pornografią dziecięcą oraz materiały związane z wykorzystywaniem seksualnym najmłodszych. Zdaniem krytyków w obecnym kształcie CSAM może doprowadzić do cenzurowania treści gromadzonych przez użytkowników i złamania podstawowych zasad związanych z prywatnością danych.

Na początku sierpnia br. pojawiły się informacje o tym, że Apple planuje wprowadzenie systemu wykrywania w środowisku swojej platformy zdjęć i materiałów graficznych, które zawierają pornografię dziecięcą i przemoc wobec najmłodszych. Rozwiązanie oparte na sztucznej inteligencji ma omijać algorytmy szyfrowania plików.

Jak ma działać CSAM?

CyberDefence24.pl w osobnym artykule wyjaśnił w szczegółach na czym ma polegać funkcjonowanie planowanego rozwiązania. System, nazwany w dokumentacji Apple’a umownie mechanizmem detekcji CSAM (od anglojęzycznego określenia nielegalnych treści o charakterze pedofilskim - Child Sexual Abuse Material), został zaprojektowany z myślą o identyfikowaniu i zgłaszaniu do odpowiednich organów użytkowników chmury iCloud, którzy przechowują na niej w usłudze iCloud Photos nielegalne materiały graficzne.

Serwery Apple’a będą flagowały konta użytkowników, które przekroczą zdefiniowaną przez system liczbę obrazów zgodnych z bazą treści CSAM (identyfikacja ma odbywać się na podstawie haszy). Na podstawie tego działania koncern będzie podejmował stosowne kroki, tj. kierował informacje o nadużyciach właścicieli kont do jednej z instytucji zajmującej się w USA ściganiem przestępstwa pedofilii – NCMEC (Narodowe Centrum ds. Zaginionych i Wykorzystywanych Dzieci, ang. National Center for Missing and Exploited Children).

Według Apple’a system będzie działał na telefonach użytkowników, nie w chmurze. Ma to być możliwe dzięki umieszczanej w systemie operacyjnym bazie haszów – to właśnie w tej formie na telefonach użytkowników będzie przechowywana baza treści CSAM.

Apple oskarżany o cenzurę

W momencie pojawienia się informacji o planach Apple’a związanych z CSAM w przestrzeni publicznej wybuchły kontrowersje związane z tym systemem.

Zamiary Apple'a wywołały obawy badaczy bezpieczeństwa, naukowców, grup zajmujących się ochroną prywatności o to, że system może być potencjalnie nadużywany przez rządy jako forma masowej inwigilacji. Firma próbowała odnieść się do tych zastrzeżeń, publikując dodatkowe dokumenty i stronę FAQ wyjaśniającą, jak system wykrywania obrazów będzie działać i argumentując, że ryzyko fałszywych wykryć jest niskie.

Apple zapowiedział również, że odmówi żądaniom rozszerzenia systemu wykrywania obrazu poza zdjęciami dzieci oznaczonymi przez uznane bazy danych materiałów wykorzystywania seksualnego.

Pomimo tego międzynarodowa koalicja ponad 90 grup i organizacji zajmujących się prywatnością w sieci opublikowała w czwartek list otwarty wzywający Apple do porzucenia planów „wbudowania funkcji nadzoru w iPhone'y, iPady i inne produkty.

„Chociaż zapowiedziane działania mają na celu ochronę dzieci i ograniczenie rozprzestrzeniania się materiałów związanych z seksualnym wykorzystywaniem dzieci to obawiamy się, że zostaną one wykorzystane do cenzurowania innych treści, zagrażają prywatności i bezpieczeństwu ludzi na całym świecie, a także będą miały katastrofalne skutki dla wielu dzieci” - zaznaczają autorzy listu.

Niektórzy sygnatariusze odezwy zorganizowanej przez amerykańską organizację non-profit Center for Democracy & Technology (CDT) obawiają się, że system skanowania CSAM w urządzeniu Apple'a może zostać podważony w krajach o różnych systemach prawnych w celu wyszukiwania treści politycznych lub podobnych wrażliwych materiałów.

„Po wbudowaniu backdoora rządy mogłyby zmusić Apple do rozszerzenia powiadomień na inne konta, oraz do wykrywania obrazów, które są nieakceptowalne z powodów innych niż seksualne - czytamy w liście.

List wzywa też Apple do rezygnacji z planowanych zmian w iMessage na kontach rodzinnych, które próbowałyby identyfikować i zamazywać nagość w wiadomościach dzieci, pozwalając im oglądać je tylko wtedy, gdy rodzice zostaną powiadomieni.

Sygnatariusze twierdzą, że krok ten nie tylko mógłby zagrozić dzieciom w nietolerancyjnych domach lub tym, które szukają materiałów edukacyjnych, ale także złamałby szyfrowanie end-to-end dla iMessage.

Niektóre organizacje podpisane pod odezwą pochodzą z krajów, w których już toczą się gorące batalie prawne dotyczące szyfrowania cyfrowego i praw do prywatności, takich jak Brazylia, gdzie WhatsApp był wielokrotnie blokowany za nieodszyfrowanie wiadomości w postępowaniach karnych. Inni sygnatariusze mają swoje siedziby w Indiach, Meksyku, Niemczech, Argentynie, Ghanie i Tanzanii. Wśród grup, które złożyły swoje podpisy, są m.in. American Civil Liberties Union, Electronic Frontier Foundation, Access Now, Privacy International oraz Tor Project.


Chcemy być także bliżej Państwa – czytelników. Dlatego, jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected]. Przyszłość przynosi zmiany. Wprowadzamy je pod hasłem #CyberIsFuture.

image
Fot. Reklama

 

Reklama

Komentarze

    Reklama