Cyberbezpieczeństwo
Telegram to dopiero początek. Koszmar deepnude w Korei Południowej
Problem deepnude w Korei Południowej jest znacznie większy niż można byłoby się spodziewać. Z informacji publikowanych przez mieszkańców tego kraju na portalu X (dawny Twitter) wynika, że produkcja pornografii za pomocą AI dotyczy każdej sfery życia. Ofiarą może zostać zarówno żołnierz, jak i uczeń, a próby samego nagłośnienia sprawy spotykają się z groźbami ze strony sprawców.
We wtorek pojawiły się informacje, że prezydent Korei Południowej wezwał do zbadania nadużyć związanych z deepnude w mediach społecznościowych. Jak opisywaliśmy, wskazał przy tym na komunikatory, gdzie szyfrowanie ma gwarantować anonimowość.
Takiemu opisowi odpowiada Telegram, którego założyciel został aresztowany na paryskim lotnisku Le Bourget w sobotę. Powodem był m.in. brak moderacji na Telegramie i obecność treści naruszających prawo na kanałach w komunikatorze.
Czytaj też
Gigantyczny problem w Korei. Uczniowie z wielu szkół ofiarami deepnude
Okazuje się jednak, że wspomniany problem deepnude jest w Korei znacznie poważniejszy niż się na pierwszy rzut oka wydawało, a deklaracja prezydenta tylko częściowo była związana z aresztowaniem Pavla Durova. Na portalu X (dawny Twitter) użytkownicy z Korei Południowej starają się nagłośnić sprawę nie tylko w kraju, ale też zagranicą. Większość procederu ma faktycznie mieć miejsce na Telegramie.
Według informacji opublikowanych w serwisie, jedna z Koreanek przygotowała mapę szkół, których uczniowie padli ofiarą wykorzystania wizerunku do stworzenia deepnude. Placówki są praktycznie w każdej części kraju; najwięcej z nich znajduje się w ośrodkach miejskich, od Seulu po Pusan. Sprawcami są zarówno uczniowie z tych samych szkół co ofiary, jak również zupełnie obce osoby.
A feminist in South Korea has mapped out schools where deepfake child pornography was created by male students using photos of girls on Telegram. The map is being updated. https://t.co/qvAr4JvA6t pic.twitter.com/TriJE1nsQw
— (cat) 페미니즘=여성인권운동 (@dvu84djp) August 27, 2024
Czytaj też
Ofiara jest atrakcyjna? „Musi się liczyć z taką możliwością"
Na tym się jednak nie kończy. Uczniowie, którzy chcieli zweryfikować fakt wykorzystania ich wizerunku w deepnude, padli ofiarą szyderstw ze strony koreańskiego youtubera z 390 tys. subskrypcji. Podczas transmisji na żywo, 2 tys. widzów popierało jego komentarze i obwiniało ofiary o składanie fałszywych oskarżeń. Wykorzystanie wizerunku do tworzenia pornografii tłumaczyli z kolei tym, że „skoro ktoś jest atrakcyjny, to musi się liczyć z możliwością zostania ofiarą”.
A YouTuber with 390,000 subscribers, Gajaeman, broadcasted content that secondary-victimized deepfake victims. The stream garnered 2,000 viewers who supported this behavior, filling the chat with derogatory comments and sexual insults such as '🩸' (an emoji mocking menstruation).… https://t.co/htg4Un3E9P
— sikpang (@sikpangslice) August 29, 2024
Z groźbami spotkali się również południowokoreańscy dziennikarze, którzy nagłośnili problem w kraju. Według dostępnych opisów, autorzy materiałów pornograficznych postanowili odpowiedzieć na artykuły za pomocą deepfake«ów wykorzystujących wizerunek autorów tychże materiałów medialnych. Są bowiem przekonani, że nie zostaną nigdy złapani przez służby.
🇰🇷 Breaking news 🇰🇷
— (cat) 페미니즘=여성인권운동 (@dvu84djp) August 27, 2024
South Korean journalists who wrote articles about Telegram deepfake child sex crimes are being blackmailed with deepfakes by the perpetrators.
article link: https://t.co/Ar2iK5n4ux https://t.co/74Z1hqPTqV pic.twitter.com/wHeLjHwpAC
Same Koreanki, które nagłaśniają sprawę w mediach społecznościowych, stają się celami ataków ze strony rodaków. Użytkowniczka dvu84djp na X ujawniła, że otrzymała wiadomości prywatne od Koreańczyków z obelgami czy oskarżeniami o plamienie koreańskiego honoru. Groźby obejmowały także odnalezienie jej miejsca zamieszkania.
I've been opening DMs for a while to talk to reporters and share information with Korean feminists, and I've received insults and accusations from Korean men that I'm breaking Korean honor, and they're trying to track me down, So I may be late in replying to you to hide myself🐢 https://t.co/t6SfBwbjuE pic.twitter.com/BmSXo8D097
— (cat) 페미니즘=여성인권운동 (@dvu84djp) August 28, 2024
Czytaj też
Obserwować problem i wyciągać wnioski
W Polsce problem deepnude nie jest jeszcze aż tak szeroki jak w Korei – między innymi ze względu na różnice kulturowe. Warto jednak zwrócić uwagę na to, co się dzieje na Dalekim Wschodzie, gdyż rozwój sztucznej inteligencji niestety prawdopodobnie doprowadzi do wzrostu popularności takich praktyk.
Podczas wiosennego spotkania z dziennikarzami, Michał Koźbiał z NASK wyjaśniał, że fałszywa pornografia ma bardzo destrukcyjny wpływ na dzieci, które są bardziej podatne na materiały tego typu niż dorośli. Ofiary deepnude zapadają również na depresję, pojawiają się myśli samobójcze. Opisywaliśmy to na naszych łamach.
Skierowaliśmy do NASK pytania związane z problemem deepnude w Polsce. Czekamy na odpowiedź.
Czytaj też
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].
user_1070398
Cieszę się że nagłaśniacie tę sprawę, miejmy nadzieję że zaangażowanie zagranicznych mediów zmusi koreański rząd do wzięcia na poważnie ochrony kobiet i dziewczyn w kraju, jednak bardzo razi w oczy neutralna forma "uczniowie" czy nawet hasło że ofiarami są/mogą być żołnierze. Oczywiście teoretycznie jest to prawda, jednak należy wziąć pod uwagę fakt że niemalże 100% ofiar to kobiety. Jest to także o tyle ważne w kontekście tego jak mizoginistyczne i antyfeministyczne jest społeczeństwo Korei, do tego stopnia że krzywda kobiet nie jest brana na poważnie a koreańskie feministki muszą szukać pomocy poza własnym krajem. Narracja ignorująca płeć ofiar jest tutaj trochę nie na miejscu.