Social media
Apple opóźnia wprowadzenie CSAM. System budzi zbyt wiele kontrowersji
Koncern Apple postanowił opóźnić wprowadzenie zapowiedzianego rozwiązania CSAM mającego wykrywać w ekosystemie producenta zdjęcia z pornografią dziecięcą oraz materiały związane z wykorzystywaniem seksualnym najmłodszych. Powodem decyzji jest rosnąca fala krytyki ze strony obrońców prywatności.
Na początku sierpnia br. pojawiły się informacje o tym, że Apple planuje wprowadzenie systemu wykrywania w środowisku swojej platformy zdjęć i materiałów graficznych, które zawierają pornografię dziecięcą i przemoc wobec najmłodszych. Rozwiązanie oparte na sztucznej inteligencji ma omijać algorytmy szyfrowania plików.
CyberDefence24.pl w osobnym artykule wyjaśnił w szczegółach, na czym ma polegać funkcjonowanie planowanego rozwiązania. System, nazwany w dokumentacji Apple’a umownie mechanizmem detekcji CSAM (od anglojęzycznego określenia nielegalnych treści o charakterze pedofilskim - Child Sexual Abuse Material), został zaprojektowany z myślą o identyfikowaniu i zgłaszaniu do odpowiednich organów użytkowników chmury iCloud, którzy przechowują na niej w usłudze iCloud Photos nielegalne materiały graficzne.
CSAM w ogniu krytyki
W momencie pojawienia się informacji o planach Apple’a związanych z CSAM w przestrzeni publicznej wybuchły kontrowersje związane z tym systemem.
Zamiary Apple'a wywołały obawy badaczy bezpieczeństwa, naukowców, grup zajmujących się ochroną prywatności o to, że system może być potencjalnie nadużywany przez rządy jako forma masowej inwigilacji. Firma próbowała odnieść się do tych zastrzeżeń, publikując dodatkowe dokumenty i stronę FAQ wyjaśniającą, jak system wykrywania obrazów będzie działać i argumentując, że ryzyko fałszywych wykryć jest niskie.
Apple zapowiedział również, że odmówi żądaniom rozszerzenia systemu wykrywania obrazu poza zdjęciami dzieci oznaczonymi przez uznane bazy danych materiałów wykorzystywania seksualnego.
Pomimo tego międzynarodowa koalicja ponad 90 grup i organizacji zajmujących się prywatnością w sieci opublikowała w czwartek list otwarty wzywający Apple do porzucenia planów „wbudowania funkcji nadzoru w iPhone'y, iPady i inne produkty”.
CSAM odłożony w czasie
Teraz Apple zapowiedział nieoficjalnie, że zamierza odłożyć w czasie wprowadzenie nowego rozwiązania, które pierwotnie miało funkcjonować jeszcze przed końcem 2021 r.
W rozmowach, które przytacza m.in. serwis 9To5Mac menedżerowie Apple przyznają, że CSAM w wydaniu tego koncernu będzie wymagał jeszcze sporo pracy, i na razie pozostaje jedynie na etapie pewnej idei, która dopiero przybierze bardziej wyraźne kształty w przyszłości.
Apple zaznacza przy tym, że nie zamierza rezygnować ani z zapewnienia najmłodszym użytkownikom maksimum bezpieczeństwa, ani też z rozwiązań mających znaczący wpływ na prywatność użytkowników. Koncern uniknął jednak bardziej szczegółowych odpowiedzi na pytania o to, kiedy CSAM może pojawić się na stałe w jego ekosystemie.
Chcemy być także bliżej Państwa – czytelników. Dlatego, jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected]. Przyszłość przynosi zmiany. Wprowadzamy je pod hasłem #CyberIsFuture.