Reklama

Social media

Apple rusza do walki z dziecięcą pornografią. Będzie skanował zdjęcia użytkowników telefonów

fot.  Zhiyue Xu/ Unsplash/ Domena publiczan
fot. Zhiyue Xu/ Unsplash/ Domena publiczan

Według nieoficjalnych informacji Apple planuje wprowadzenie systemu wykrywania w środowisku swojej platformy zdjęć i materiałów graficznych, które zawierają pornografię dziecięcą i przemoc wobec najmłodszych. Rozwiązanie oparte na sztucznej inteligencji ma omijać algorytmy szyfrowania plików, budzi jednak kontrowersje związane z jego skutecznością.

Koncern Apple w przeszłości wielokrotnie podkreślał, że jednym z jego najważniejszych celów jest ochrona prywatności użytkowników, zarówno tych korzystających z iPhone’ów, jak i tych używających komputerów oraz innych rozwiązań producenta.

Apple będzie walczył z pedofilią

Zgodnie z nieoficjalnymi doniesieniami medialnymi, Apple zamierza w najbliższym czasie poświęcić pewną część swojej strategii dotyczącej prywatności na rzecz walki z takimi zjawiskami w sieci, jak pornografia z udziałem dzieci czy materiały związane z przemocą wobec najmłodszych.

Apple zamierza w przyszłości wdrożyć rozwiązania, które pozwolą na skanowanie w urządzeniach użytkowników obiektów (głównie zdjęć i plików wideo), które mogą mieć charakter pedofilski lub prezentować treści związane z przemocą wobec dzieci.

Zgodnie z zapowiedziami, nowy algorytm oparty na mechanizmach sztucznej inteligencji będzie przeszukiwał pamięć urządzeń oferowanych przez Apple i zestawiał je z gotowymi wzorcami przygotowanymi przez koncern. W wypadku, gdy oba szablony będą się według AI pokrywały - Apple zapowiada dodatkowe działania, a w przyszłości wchodzi w grę także powiadomienie odpowiednich władz.

System może być wadliwy

Eksperci podkreślają, że Apple już wcześniej zapowiedział skanowanie treści w usłudze iCloud zmierzające do identyfikacji nielegalnych materiałów graficznych. Teraz jednak taka kontrola ma się odbywać po stronie konkretnego urządzenia, niezależnie od działających w nim mechanizmów dotyczących szyfrowania danych.

Matthew Green, jeden ze specjalistów w sprawach kryptografii zwraca uwagę na to, że planowany przez Apple system może posiadać istotne wady. Chodzi przede wszystkim o to, że AI nie będzie w stanie rozpoznawać podejrzanych treści z odpowiednią dokładnością i reagować w wypadkach materiałów, które nie posiadają cech zdefiniowanych jako niedozwolone.


Chcemy być także bliżej Państwa – czytelników. Dlatego, jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected]. Przyszłość przynosi zmiany. Wprowadzamy je pod hasłem #CyberIsFuture. 

image
Fot. Reklama
Reklama

Haertle: Każdego da się zhakować

Materiał sponsorowany

Komentarze

    Reklama