Reklama

CYBERMAGAZYN

Deepnude. Zagrożenie, które ciągle rośnie

Jednym z największych zagrożeń powodowanych przez sztuczną inteligencję są materiały deepnude.
Jednym z największych zagrożeń powodowanych przez sztuczną inteligencję są materiały deepnude.
Autor. Mohamed Nohassi/Unsplash

Rozwój sztucznej inteligencji, według wielu opinii, może przynieść spore zyski zarówno dla ludzkości jako ogółu, jak i w indywidualnych przypadkach. Rosnącym problemem jest jednak mroczniejsza część generatywnej AI – zwłaszcza dotyczy to deepnude, które stają się coraz trudniejsze do odróżnienia od prawdziwych materiałów.

Zachwyt nad sztuczną inteligencją w ostatnich latach można oceniać na różne sposoby. Prawdą jest, że zaawansowana AI jest w stanie wybitnie pomóc ludzkości zarówno w codziennych czynnościach, jak i w zaawansowanych procesach.

W euforii spowodowanej obecnymi zdolnościami generatywnej sztucznej inteligencji wiele osób zapomina jednak o zagrożeniach, jakie tworzy dla społeczeństwa. Kwestia naruszeń praw autorskich przez AI odpowiedzialne za tworzenie tekstów jest jednym z wątków, na który niewielu zwraca uwagę podczas codziennego korzystania z tej technologii.

Czytaj też

Reklama

Deepnude nie powstaje jedną metodą. Są ich trzy

Największym zagrożeniem jest jednak wykorzystanie wizerunku dowolnej osoby. Przykłady reklamowania fałszywych wideo o rzekomo „atrakcyjnych inwestycjach” czy o „końcu kariery aktora” są zdecydowanie najłagodniejszymi z możliwych. Najmroczniejszym elementem są bowiem deepnude, czyli treści dla dorosłych wygenerowane przez sztuczną inteligencję.

Wykorzystanie AI do stworzenia pornografii lub materiałów wykorzystujących nieletnich nie oznacza jedynie wygenerowania danego zdjęcia czy wideo.

Jak wskazywał Michał Koźbiał z NASK podczas spotkania z dziennikarzami na którym byliśmy obecni, w istocie jest to jedna z trzech możliwości. Na pozostałe dwie składają się zamiana twarzy (face swap), która wymaga dwóch zdjęć i zaznaczenia obszaru twarzy, bądź głowy do przeniesiania oraz narzędzia „rozbierające” osobę na wskazanym zdjęciu po zaznaczeniu ubrań.

Obecnie wszystkie trzy sposoby można w miarę sprawnie odróżnić od prawdziwych materiałów. Głównymi różnicami będą np. kolor skóry, rozdzielczość czy oświetlenie na zdjęciu. Z kolei w przypadku obrazów całkowicie wygenerowanych pierwszą wskazówką będą m.in. wygląd dłoni, tła czy innych detali. 

Czytaj też

Reklama

Zagrożenie może być śmiertelne

Problem polega jednak na tym, że wraz z rozwojem modeli generatywnej sztucznej inteligencji, rozpoznawanie wygenerowanych materiałów będzie coraz trudniejsze – przykładem jest stworzony przez Sorę materiał filmowy z Times Square w tle. Oznacza to wzrost zagrożenia dla osób, które mogą zostać w ten sposób zaatakowane – w przypadku deepnude, aż 99 proc. poszkodowanych to kobiety.

Sytuacji wcale nie polepsza fakt, że narzędzia do produkcji deepnude są powszechnie dostępne i banalne w obsłudze. Co więcej, zdaniem Koźbiała mogą z nich korzystać nawet osoby niepełnoletnie. 

I to właśnie osoby niepełnoletnie, razem z osobami starszymi, są bardziej podatne na oddziaływanie deepnude. Powodem jest problem z odróżnieniem materiału zmanipulowanego od prawdziwego, a także elementem zaskoczenia, towarzyszący odkryciu materiału tego typu.

Niestety, niższa odporność dzieci na deepnude i tendencja do zamykania się w sobie w sytuacjach stresowych – zwłaszcza w przypadku braku pomocy ze strony bliskich czy nauczycieli - powoduje, że tego typu treści mają bardzo destrukcyjny wpływ na ich zdrowie. Mowa tu o depresji, zespole stresu pourazowego, a w najgorszych przypadkach myślach samobójczych.

Czytaj też

Reklama

Konieczne reagowanie i informowanie

Obecnie prawo całkowicie zakazuje zarówno posiadania, jak i rozpowszechniania oraz produkcji materiałów przedstawiających wykorzystanie seksualne osób małoletnich. Tymczasem, jak zauważyła Martyna Różycka, szefowa Dyżurnet, podczas tego samego spotkania, z materiałami z osobami dorosłymi jest już nieco inaczej: upublicznianie bez zgody jest nielegalne, natomiast posiadanie już nie.

Niemniej jednak, w każdym przypadku nielegalnego wykorzystania wizerunku, koniecznie trzeba powiadomić zarówno policję i prokuraturę, jak również i administratora strony, na której pojawił się dany materiał. Samo powiadomienie nie oznacza jednak, że sprawa się rozwiąże, ponieważ np. administrator strony, któremu zależy na uzyskaniu jak największej liczby kliknięć, może zwlekać z usunięciem materiału naruszającego wizerunek.

Z kolei zgłoszenie takiej sprawy na policję, co w przypadku mniejszych miejscowości oraz wsi oznacza konieczność wyjazdu do stolicy województwa, gdzie w ramach komendy wojewódzkiej działa Zespół Spraw Zwalczania Cyberprzestępczości, może być problematyczne. Stąd - jeżeli ofiara z jakiegoś powodu nie może zgłosić sprawy na policję - może skorzystać z pomocy Dyżurnetu.

Prawo do zapomnienia

Bardzo istotne w tym przypadku jest prawo do zapomnienia. Umożliwia ono usunięcie danego materiału z wyników wyszukiwania, przy jednoczesnym pozostawieniu go na stronie internetowej. Zatem może to wyglądać na nie do końca skuteczną metodę działania, jednak w rzeczywistości zadziała ona szybciej niż prawdopodobnie administrator strony zareaguje na wniosek o usunięcie danego materiału.

Zarówno Michał Koźbiał, jak i Martyna Różycka zwracali uwagę, że prawo do zapomnienia jest bardzo mało znane wśród Polaków, co może być spowodowane niskim poziomem wiedzy o jego istnieniu. Konieczne jest zatem szersze informowanie o tym, że istnieje i faktycznie pomaga ofiarom. I co chyba najbardziej oczywiste - pośrednio udziela wsparcia samym poszkodowanym.

Czytaj też

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: \*[email protected].\*

Reklama

Komentarze

    Reklama