Cyberbezpieczeństwo
Deepfake w branży porno. Czy jesteśmy gotowi na plagę fałszywych materiałów?
Ostatnio coraz więcej w sieci mówimy o deepfake’ach, czyli nieautentycznych materiałach, tworzonych przy pomocy narzędzi opartych na sztucznej inteligencji, które mogą przybrać postać fałszywego obrazu/filmu/dźwięku. Czy jesteśmy gotowi, by zmierzyć się z potencjalną plagą fałszywek i samemu nie paść ich ofiarą?
O tym, że obrazy wygenerowane przy pomocy narzędzi bazujących na sztucznej inteligencji mogą być zagrożeniem pisaliśmy na łamach CyberDefence24.pl wielokrotnie. To jednak nie tylko wprost potencjalne źródło dezinformacji (jeśli nie zostanie użyte „dla zabawy” i odpowiednio oznaczone), ale także krzywdy wyrządzonej wobec drugiego człowieka poprzez przygotowanie spreparowanych materiałów.
Wyobraźmy sobie sytuację, kiedy powstaje deepfake podszywający się pod prezesa firmy giełdowej, która ogłasza złe wieści – akcje od razu szybują w dół. Inna sytuacja? Przywódcę dowolnego państwa ogłaszającego rozpoczęcie wojny wobec innego kraju (jak na razie mieliśmy przykład deepfake’a przygotowanego przez Rosjan, który podszywał się pod prezydenta Zełenskiego wzywającego do rzekomo poddania się przez ukraińskich żołnierzy). Kolejny? Sprawca zbrodni szykuje nagranie, którego celem jest „wrobienie” kogoś innego.
Czytaj też
Cel deepfake'ów
Jednak to nie wszystko. Celem deepfake’a może być każdy z nas i o ile istnieją narzędzia sztucznej inteligencji do ich tworzenia, o tyle nie powstały jeszcze żadne skuteczne rozwiązania do ich automatycznego wykrywania i „rozbrajania”.
Jednym z takich przykładów może być użycie deepfake’ów do produkcji filmów pornograficznych. W mediach zagranicznych głośna była sprawa streamerki QTCinderelli, która popłakała się na wizji w reakcji na filmy o takim charakterze, w których nigdy nie brała udziału. Nie była to jednak jedyna influencerka, której wizerunek wykorzystano bezprawnie, bo przecież bez jej zgody.
Brak wyrażenia zgody na udział w deepfake’u, pokazującego kogoś w negatywnym świetle, nadszarpując jego dobre imię i reputację, to jednak tylko wierzchołek góry lodowej, nim zdamy sobie sprawę ze skali zagrożenia.
Rośnie skala deepfake'ów
Jak opisuje NBC News, cyfrowo obrabiane materiały wideo o charakterze pornografii „z twarzami setek kobiet, które nie wyraziły na to zgody, przyciągają dziesiątki milionów, chcących odwiedzać tego typu strony internetowe”.
Jeden z takich serwisów za 5 dolarów ma umożliwiać pobieranie tysięcy porno deepfake’ów z twarzami celebrytów. Co wiecej, dla ułatwienia... akceptuje płatności za pośrednictwem karty lub w kryptowalutach. Tego typu platformy mają być łatwo dostępne za pośrednictwem Google, a co więcej – reklamowane były także na platformie Discord.
Zdaniem firmy Sensity, na którą powołuje się seriws, 96 proc. deepfake’ów ma „charakter jednoznacznie seksualny i zawiera wizerunek kobiet, które nie wyraziły zgody na tworzenie treści z ich podobizną”. Jedna z takich platform ma przedstawiać celebrytki, ale twórcy serwisu oferują też stworzenie fałszywego wideo z wizerunkiem właściwie każdego. Stronę ma odwiedzać średnio 17 mln internautów miesięcznie (celowo nie podajemy tu jej nazwy). Rzecznik Google miał oświadczyć NBC, że osoby z których wizerunkiem powstanie deepfake mogą „prosić o usunięcie stron z wyszukiwarki z ich udziałem”.
Zdaniem badaczki internetowej Genevieve Oh, cytowanej przez redakcję, liczba plików przesyłanych na stronę od lutego stale rośnie. Inny taki serwis ma reklamować się m.in. na Instagramie jako „najlepiej opłacana platforma twórców treści dla dorosłych”.
Kto ma być najpopularniejszym celem deepfake’ów? Aktorki Emma Watson oraz Scarlett Johansson. Miały także „brać udział” w kampaniach na Facebooku o seksualnym charakterze, które wyświetlały się dwa dni nim Meta je usunęła.
Czytaj też
Niski koszt produkcji
Zapytaliśmy prof. dr hab. Dariusza Jemielniaka z Katedry Zarządzania w Społeczeństwie Sieciowym z Akademii Leona Koźmińskiego o to, czy jego zdaniem można zapobiec skali i produkcji deepfake’ów.
„Moim zdaniem nie można temu zapobiec. Technologia video deepfake błyskawicznie się doskonali, tanieje i jest łatwiejsza w użyciu. W perspektywie roku-dwóch niemal każdy będzie mógł wyprodukować dowolny film z dowolną osobą robiącą dowolną rzecz. A w każdym razie będzie to zwyczajnie niedrogie. Trzeba jednak pamiętać, że równolegle nastąpi proces desensytyzacji na materiały video - przestaną wywoływać wrażenie autentyczności” – zaznacza dla CyberDefence24.pl.
Wiele razy pisaliśmy o tym, jak należy podchodzić do deepfake oraz jakimi wskazówkami trzeba się kierować, by odróżnić taki materiał od autentycznego. W ubiegłym tygodniu organizowaliśmy również pokój twitterowy na ten temat, gdzie ekspert Demagoga Mateusz Cholewa opowiadał o najważniejszych wnioskach z tego, co wiemy obecnie o tej technologii.
Czytaj też
Czy zatem jako społeczeństwo jesteśmy gotowi na odróżnienie materiałów deepfake od autentycznych? „Nie będziemy w stanie odróżniać samych materiałów, jak już jest z materiałami foto, ale w związku z tym coraz większe znaczenie będzie miała redakcja i kto dany materiał publikuje. W długim okresie to może mieć dobry efekt potencjalnie, bo wyeliminuje patologię influencerów, a pozostawi rzetelne media” – zaznacza prof. Dariusz Jemielniak.
Jak dodaje, trzeba przede wszystkim edukować w zakresie rozumienia hierarchii źródeł i krytycznego myślenia. „To fundamentalnie ważne, abyśmy nie akceptowali bezkrytycznie tego, co jakiś pewny siebie klaun nagrywa tylko po to, żeby zwiększać sobie zasięgi i konwersje dla kasy. Trzeba się zastanawiać nad prawdopodobieństwem odbieranego przekazu, czy dane wydarzenia w ogóle są wiarygodne i jeśli tak, to jak możemy to zweryfikować” - podsumowuje prof. dr hab. Dariusz Jemielniak.
O tym, jak można chronić się przed deepfake pisaliśmy między innymi w tym materiale. Jedną z metod może być oznaczanie treści.
Czytaj też
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].