Cyberbezpieczeństwo
AI coraz częściej wykorzystywana przez pedofilów. „Jesteśmy w punkcie krytycznym”
Rośnie liczba materiałów przedstawiających wykorzystanie seksualne dzieci, stworzonych z użyciem sztucznej inteligencji - ostrzega Internet Watch Foundation (IWF). „Jako Polska mamy dodatkowe powody do niepokoju” – komentuje w rozmowie z CyberDefence24.pl Konrad Ciesiołkiewicz, członek komisji ds. przeciwdziałania wykorzystaniu seksualnemu małoletnich poniżej lat 15.
O 6 proc. w ciągu zaledwie pół roku wzrosła liczba materiałów związanych z wykorzystywaniem seksualnym dzieci, generowanych przez sztuczną inteligencję – przekazał IWF. Fundacja ostrzega, że niemal wszystkie treści były dostępne publicznie w internecie (99 proc.).
W świetle prawa brytyjskiego tego typu materiały są uznawane za nielegalne. Według polskiego kodeksu karnego tworzenie, posiadanie jak i dystrybucja dziecięcej pornografii podlega karze więzienia do 3 lat.
Czytaj też
Materiały wyglądają realistycznie
Internet Watch Foundation to brytyjska fundacja zajmująca się nadużyciami w sektorze nowych technologii. Przez jej stronę internetową można zgłaszać CSAM, czyli materiały przedstawiające seksualne wykorzystywanie dzieci.
Analitycy IWF analizują zgłoszenia oraz sami wyszukują CSAM i na tej podstawie tworzą raporty. Fundacja zajmuje się też usuwaniem dziecięcej pornografii z internetu. To największa w Europie organizacja tego typu.
IWF podkreśla, że materiały związane z wykorzystywaniem seksualnym dzieci generowane przez sztuczną inteligencję są tak realistyczne, że wyglądają jak prawdziwe. Technologia jest już tak zaawansowana, że pozwala na tworzenie zarówno obrazów, jak i krótkich filmów.
„Materiały z udziałem dzieci w kontekście AI są tworzone na trzy sposoby. Pierwszy polega na wykorzystaniu zdjęcia osoby nieletniej i zmodyfikowania obszaru, w którym znajdują się ubrania, czyli de facto ktoś rozbiera dziecko przy użyciu sztucznej inteligencji. Inna metoda polega wykorzystaniu legalnego materiału pornograficznego z udziałem osób dorosłych, gdzie sprawca »dokleja« głowę dziecka. Wygląda to tak, jakby ono brało udział w tych czynnościach. Trzecia kategoria to materiały stworzone od zera przy użyciu np. promptów. Niektórzy wykorzystują przy tym prawdziwe wizerunki ofiar” – tłumaczy Michał Koźbiał, starszy programista w NASK, w rozmowie z CyberDefence24.pl.
Materiały przedstawiające wykorzystanie dzieci nie tylko w darknecie
Jak przekazało Internet Watch Foundation – zgłaszane materiały były najczęściej znalezione w miejscach, takich jak fora internetowe czy galerie AI. Niektóre z nich są kwalifikowane jako obrazy niefotograficzne - np. jako kreskówki.
„Treści przestępcze nie ograniczają się do tajemniczych miejsc w dark webie. Prawie wszystkie zgłoszenia, z którymi mieliśmy do czynienia, zostały znalezione na ogólnodostępnych stronach” – podkreśla jeden z analityków IWF.
„Problem polega na tym, że stworzenie takich treści i ich opublikowanie zajmuje chwilę, kilka minut. Natomiast zweryfikowanie, że materiał jest nielegalny wymaga więcej pracy. Większe firmy technologiczne posiadają algorytmy, które wykrywają nieodpowiednie materiały i zakrywają je lub usuwają, ale ich skuteczność najczęściej nie jest stuprocentowa. Fora nie zawsze mają taką automatyczną kontrolę. Materiał musi być najpierw zgłoszony, później sprawdzony manualnie przez moderatora. To wszystko trwa” – tłumaczy Michał Koźbiał.
Czytaj też
Ofiary nie mogą wyjść z traumy
Analitycy IWF zanotowali przypadki, w których pedofile wykorzystywali ponownie materiały obrazujące wykorzystywanie dzieci, przekształacając je na bardziej ekstremalne.
Ofiary tego typu działań przekazały brytyjskiej fundacji, że fakt iż materiały dalej krążą w internecie przypomina o traumie, uniemożliwia wyleczenia się i pójście naprzód po gehennie, którą przeszły.
„Ludzie nie mogą mieć złudzeń, że materiały przedstawiające molestowanie seksualne dzieci generowane przez sztuczną inteligencję powodują straszne szkody, nie tylko dla tych, którzy mogą je zobaczyć, ale także dla tych, którzy przetrwali ten horror i stają się ponownie ofiarami za każdym razem, gdy obrazy i filmy przedstawiające ich molestowanie są bezlitośnie wykorzystywane dla perwersyjnej rozrywki wirtualnych drapieżników” - komentuje Derek Ray-Hill, tymczasowy dyrektor generalny IWF.
Czytaj też
Dzieci mogą natknąć się na materiały pedofilskie
Co znamienne – eksperci IWF zaznaczają, że oglądanie generowanych przez AI treści dotyczących wykorzystywania seksualnego dzieci może być tak samo niepokojące, jak oglądanie materiałów z prawdziwymi dziećmi, jeśli dana osoba nie jest przygotowana lub przeszkolona, aby radzić sobie z oglądaniem takiego materiału.
Na tego typu materiały mogą natknąć się także dzieci, na co zwraca uwagę Konrad Ciesiołkiewicz, członek komisji ds. przeciwdziałania wykorzystaniu seksualnemu małoletnich poniżej lat 15. „Jako Polska mamy dodatkowe powody do niepokoju, bo mamy wyższy od wielu krajów poziom ekspozycji młodych ludzi na treści destrukcyjne dla ich psychiki” – zaznacza w rozmowie z CyberDefence24.pl.
Analitycy IWF zwracają też uwagę, że fałszywe materiały z dziecięcą pornografią mogą stanowić duże wyzwanie dla policji, która w przypadku nasilenia zjawiska, nie będzie wiedziała, kiedy zdrowie lub życie dziecka jest rzeczywiście zagrożone.
Uważam to za naprawdę przerażające, ponieważ wydaje się, że jesteśmy w punkcie krytycznym. Istnieje możliwość, że organizacje takie jak nasza i policja zostaną przytłoczone setkami nowych obrazów, gdzie nie zawsze wiemy, czy mamy do czynienia z żywym dzieckiem, które potrzebuje pomocy
Anonimowy analityk IWF
Jak ograniczyć zjawisko?
Konrad Ciesiołkiewicz zaznacza, że państwowa komisja, której jest członkiem, zajmuje się problemem treści CSAM tworzonych z użyciem AI, szczególnie w zakresie edukacji, prewencji oraz doskonalenia systemu instytucji publicznych, których zadaniem jest ochrona najmłodszych. Zapowiada też stworzenie nowego dokumentu w tym zakresie.
Musimy mieć świadomość, że to właśnie tzw. media społecznościowe są pierwszym miejscem zarówno działania sprawców, zdobywania informacji o dziecku jak i często dostępu do wspomnianych treści. Chcemy włączyć się w prace dotyczące tych rozwiązań z naszymi argumentami i wiedzą o mechanizmach krzywdzenia, jakie Komisja posiada. Zależy nam także na powstaniu czegoś na wzór standardów lub Karty Praw Dziecka dla branży cyfrowej, a także reklamowej i marketingowej.
Konrad Ciesiołkiewicz
Ekspert ma nadzieję, że skala zjawiska zmniejszy się także po sprawnej implementacji dyrektywy DSA i dzięki nowemu prawu, które dopiero powstaje.
„Duże nadzieje wiążemy z nową regulację UE, roboczo zwaną właśnie regulacją CSAM, tworzoną na wzór rozwiązań amerykańskich i wprost dedykowaną zwalczaniu przemocy seksualnej wobec dzieci zarówno online jak i offline” – komentuje.
Nie jest jednak znana data opublikowania dokumentu. „Myślę, że Polska prezydencja w Radzie UE będzie ważnym czasem w tym kontekście” – twierdzi Ciesiołkiewicz.
Ministerstwo Cyfryzacji pracuje także nad ustawą, która ma z kolei ograniczyć dostęp do pornografii dla osób nieletnich. Założenia ustawy mamy poznać jeszcze w grudniu.
Czytaj też
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].