Cyberbezpieczeństwo
Deepnude wśród nastolatków. 99 proc. ofiar to dziewczyny
Uniwersytet Antwerpski przeprowadził badania dotyczące tworzenia i rozpowszechniania deepnude przez nastolatków. „Chłopcy i dziewczyny dzielą tym jak kartami Pokemon” - stwierdził Niels Van Paemel z fundacji Child Focus. Jak walczyć z problemem?
Niels Van Paemel jest doradcą w Child Focus, belgijskiej fundacji na rzecz dzieci zaginionych i wykorzystywanych seksualnie. Podczas 18. Międzynarodowej Konferencji „Bezpieczeństwo dzieci i młodzieży w internecie” wygłosił prelekcję na temat deepnude, czyli treści pornograficznych tworzonych przy pomocy sztucznej inteligencji.
Jak zauważył ekspert, dostępność generatywnej AI spowodowała, że możemy w łatwy sposób tworzyć materiały wideo, piosenki, zdjęcia. „Niestety oznacza to, że treści seksualne można generować równie łatwo” – zaznaczył.
Czytaj też
Sextortion na podstawie fałszywych materiałów
Van Paemel zauważył, że ofiarami deepnude często padają osoby, które nie zrobiły nic zawstydzającego. Bywa nawet, że są szantażowane nagraniami o charakterze seksualnym, w których nie uczestniczyli. Oszuści chcą w ten sposób wyłudzić pieniądze.
„Te nagrania są w pełni sztuczne, wygenerowane przez sztuczną inteligencję, ale wyglądają tak realistycznie, że można w nie uwierzyć” – zauważył ekspert. Osoba, która nie zapłaci okupu musi się liczyć z tym, że jej wizerunek, być może budowany przez wiele lat, zostanie zniszczony.
Belgijski specjalista zaznacza, że nie ma oficjalnych danych na temat skali sextortion z użyciem AI, ale wszystkie linie pomocowe w jego kraju otrzymują zgłoszenia o takich przestępstwach.
Czytaj też
Rodzaje aplikacji deepnude
Niels Van Paemel przedstawił wyniki badania na temat deepnude wśród osób dorosłych oraz nieletnich, przeprowadzone przez Uniwersytet Antwerpski m.in. na zlecenie fundacji Child Focus. Jej głównym celem było pokazanie belgijskiemu rządowi, że problem jest realny i trzeba znaleźć sposób na jego rozwiązanie.
Z badania wynika, że aplikacje do tworzenia pornograficznych deep fake«ów są coraz częściej wyszukiwane w wyszukiwarkach internetowych. Można tam znaleźć platformy, które oferują podmianę twarzy na zdjęciu lub nagraniu przedstawiającym scenę erotyczną.
Drugi rodzaj aplikacji to, te które umożliwiają stworzenie nagiego wizerunku na podstawie zdjęcia osoby, która jest w pełni ubrana lub ma na sobie strój kąpielowy czy bieliznę Trzeci rodzaj to „generator porno”. Po wpisaniu odpowiedniego promptu aplikacje tworzą materiał pornograficzny z osobami, z jakimi sobie zażyczymy.
„To są te trzy rodzaje sztucznej inteligencji deepnude, które są najczęściej wyszukiwane” – podkreślił Niels Van Paemel.
Czytaj też
Większość ofiar to dziewczyny
Z badania przeprowadzonego na belgijskich nastolatkach wynika, że ok. 42 proc. z nich wiedziało, co to jest deepnude, 23 proc. miało na smartfonie aplikacje do tworzenia deepnude, 12,8% małoletnich zna przynajmniej jedną. 65,5% spośród tych, którzy wiedzą, jak działa aplikacja, spróbowali jej używać.
Co znamienne, 99% ofiar to dziewczyny. „Testowaliśmy platformy służące do tworzenia materiałów z wizerunkami mężczyzn i dawały słabe efekty, nie tak realistyczne. To jest rynek, na którym ewidentnie ofiarami są dziewczynki” – podkreśla ekspert.
Czytaj też
Dlaczego nastolatki tworzą i dzielą się deepnude?
Belgijscy badacze pytali też nastolatków, w jaki sposób przekazują sobie intymne materiały wygenerowane przez AI. Większość przyznała, że otrzymała deepnude na Snapchatcie (27 proc.), Instgramie (21 proc.) oraz X (21 proc.). Inne platformy używane w tym celu to TikTok (16 proc.) i Telegram (15 proc.).
Nastolatki były także pytane, dlaczego tworzą deepnude. Odpowiedzi, które często padały to zrewanżowanie się, zemsta, poniżenie kogoś, wzbudzenie podziwu rówieśników i tym samym podniesienie swoje statusu w grupie.
„Część chłopców odpowiedziała, że robią to, bo to jest fajne i śmieszne. Tłumaczyli się: »nie chcieliśmy zrobić nic złego, to tylko żart, przecież to jest nieprawdziwe«”– opowiada Van Paemel.
Jak podkreśla jednak ekspert, wpływ na dziewczyny, które padły ofiarą deepnude, mimo że nigdy w życiu nie zrobiły sobie nagich zdjęć, jest ogromny, powoduje przewlekłą traumę.
Czytaj też
Prawa ofiary i kary dla sprawców
Specjalista podkreślał, że nie powinno mieć znaczenia, czy intymne materiały są prawdziwe czy nie, jeśli patrzymy na prawa ofiary. Brakuje jednak krajowych przepisów stricte odnoszących się do ochrony ofiar cyberprzemocy.
Warto zaznaczać, że zgodnie z polskim prawem tworzenie, posiadanie i dystrybucja treści przedstawiających dzieci w kontekście seksualnym są karalne, co wyjaśniła Martyna Różycka, kierowniczka zespołu Dyżurnet.pl, prezeska zarządu Fundacji NASK w rozmowie z redakcją CyberDefence24.pl.
§ 4b. Kto produkuje, rozpowszechnia, prezentuje, przechowuje lub posiada treści pornograficzne przedstawiające wytworzony albo przetworzony wizerunek małoletniego, uczestniczącego w czynności seksualnej podlega grzywnie, karze ograniczenia wolności albo pozbawienia wolności do lat 2.
Kodeks karny, art. 202
Prawo chroni wizerunek osób zarówno w neutralnym kontekście, jak i nakłada szczególną ochronę na materiały wytworzone w sytuacji intymnej (art. 191a KK). Kwestie te regulują także przepisy o prawie autorskim.
Nastolatki, które tworzą i rozpowszechniają deepnude innych osób nieletnich nie zdają sobie więc sprawy, że łamią prawo i grozi im za to do dwóch lat więzienia.
Czytaj też
Jak walczyć z problemem deepnude wśród nastolatków
Według Van Paemela kluczowe jest zwiększanie świadomości młodzieży, tak by nie myślała, że tworzenie i rozpowszechnianie deepnude jest „zabawne i fajne”. Istotna jest też zmiana mentalności dotyczącej prywatności seksualnej oraz uczciwości.
Chłopcy i dziewczyny dzielą się deepnude, tak jak kartami Pokemon. Zdecydowanie jest nad czym pracować. Przede wszystkim nastolatki muszą zdać sobie sprawę, że z punktu widzenia ofiary nie ma znaczenia czy materiały są prawdziwe czy fałszywe.
Niels Van Paemel z Child Focus
Ekspert podkreślił również, że ważne jest prowadzenie badań naukowych, które udowodnią, że tego typu działania wywierają ogromny zły wpływ na ofiarę.
Potrzebujemy zbierać dane, przeprowadzać badania, potrzebujemy działań prewencyjnych. Musimy uzmysławiać młodym ludziom, jak odczytywać czerwone flagi, uczyć ich rozpoznawać, czy coś z fejkiem, czy nie, kierować ich na właściwe strony internetowe.
Niels Van Paemel z fundacji Child Focus
Czytaj też
Odpowiedzialność platform
Van Paemel uważa także, że niezbędna jest uregulowanie kwestii aplikacji służących do tworzenia deepnude. Według eksperta należałoby sprawić, by nie pojawiały się one w wynikach wyszukiwania na platformach internetowych.
„Kolejna rzecz, to konieczność podnoszenia przez media społecznościowe świadomości wśród konsumentów. Użytkownicy powinni być świadomi, że mogą mieć do czynienia z materiałami wygenerowanymi przez sztuczną inteligencję” – skomentował.
Na koniec prelekcji specjalista zaznaczył, że nie powinniśmy dopuszczać się victim blamingu, czyli obwiniania ofiary za to, że np. zrobiła sobie nagie zdjęcie. Biorąc pod uwagę dostępną technologię nie wiemy nawet, czy materiały są prawdziwe.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].