Social media

Prawda kontra deepfakes. „Idealne warunki do szerzenia coraz bardziej wyrafinowanej dezinformacji”

fot. Timek Life/ Unsplash/ Domena publiczna
fot. Timek Life/ Unsplash/ Domena publiczna

W świecie, gdzie fakty coraz wyraźniej ścierają się z fake newsami i nieustannie walczymy z dezinformacją, nowym wyzwaniem, którego „potencjał” wciąż jest jeszcze uśpiony – jest technologia deepfakes. Czy jesteśmy na nią gotowi? 

Choć nie jest to zjawisko nowe, zdaniem ekspertów w kolejnym – 2022 roku i w następnych latach – może stanowić coraz poważniejsze zagrożenie. Technologia deepfakes (słowo stanowi zbitkę angielskich słów - deep learning - głębokie uczenie maszynowe i fake – fałsz) do tej pory wykorzystywana w formie zabawy – jak to było w przypadku nagrań ze znanym aktorem Tomem Cruisem czy w szczytnym celu – jak w przypadku nagrania z Davidem Beckhamem – może być wykorzystywana jednak z zupełnie innych powodów.

Ten nowoczesny sposób obróbki nagrań w oparciu o sztuczną inteligencję może sprawić, że sfabrykowany obraz – powstały na podstawie zdjęć, filmów lub dźwięków – za pośrednictwem odpowiedniego programu może doprowadzić do stworzenia celowo zmanipulowanego materiału. Powstaje on w oparciu o działanie dwóch algorytmów na podstawie zgromadzonych danych, zastępując (zazwyczaj) twarz jednej osoby z inną. 

Innowacyjna, ale niebezpieczna metoda była już wykorzystywana m.in. w wideo z postacią do złudzenia przypominającą Marka Zuckerberga w 2019 roku, co wywołało poruszenie wśród internautów czy w fejkowym przemówieniu Elżbiety II lub byłego prezydenta USA Baracka Obamy. Znacznie poważniejszymi przypadkami są jednak manipulacje o charakterze politycznym czy osobistym, kiedy celem jest skompromitowanie ofiary, wpływanie na ocenę sytuacji, przedstawienie obrazu w negatywnym świetle, by zniszczyć reputację osoby, instytucji, organizacji. Nie wolno także zapominać, że deepfakes może zostać wykorzystany także w działaniach terrorystycznych czy przestępczości internetowej – co przez ekspertów z University College London zostało uznane za najbardziej niepokojące, możliwe wykorzystanie AI.

Łatwość w dostępie do programów i aplikacji, które pozwalają generować zafałszowane wideo (celowo nie podajemy ich nazw) sprawia, że najwyższa pora, by zadać sobie pytanie: czy jesteśmy gotowi na skalę potencjalnego zagrożenia? Czy dysponujemy odpowiednimi metodami, by prostować zafałszowane informacje? I choć nadal powszechnie uważa się, że deepfakes nie są jeszcze tak idealne, by nie dało się ich rozpoznać, to przy tym zapominamy, że skalę zagrożenia fake newsów doceniliśmy właściwie dopiero, kiedy okazało się, iż mają poważny wpływ na krajobraz polityczno-społeczny. Pokazały to choćby wybory w USA w 2016 roku czy Brexit i związane z nim konsekwencje dla Wielkiej Brytanii.

Mutale Nkonde, dyrektor generalny organizacji non-profit AI For the People z Uniwersytetu Stanforda, cytowany przez The Washington Post, zauważa, że systemy sztucznej inteligencji uczą się, szkoląc na nowych obrazach. To zatem kwestia dostarczenia wystarczająco dużej ilości danych i wyszkolenia algorytmów. W jego opinii nie zajmie to dużo czasu, by deepfakes stały się „naprawdę przekonujące”.

Polecamy: Dezinformacja będzie rosła. „Coraz częściej żyjemy w subiektywnych bańkach”

Nic na świecie nie jest czarno-białe, a ma różne odcienie szarości w przyszłości społeczeństwo może na deepfakes także skorzystać w edukacji, opiece medycznej czy sztuce. Pamiętać jednak trzeba, że z drugiej strony – wideo te mogą podważać zaufanie do informacji dostarczanych przez media, przedstawicieli władz czy ludzi publicznych, a nawet zaogniać sytuację między państwami.

Na przykładzie choćby kryzysu migracyjnego na granicy polsko-białoruskiej widzimy, że ten, kto dziś zarządza informacją, ten wygrywa – stąd rosnąca skala działalności farm trolli, które tworzą zafałszowany przekaz (więcej o problemie piszemy tutaj). 

Jeśli dołączymy do tego wideo, często trafiające do nas w szumie informacyjnym bardziej niż przekaz tekstowy, możemy nawet nie zorientować się, kiedy przestanie zacierać się granica między fałszem a prawdą, tym bardziej, że pamiętać należy: „Zanim prawda włoży buty, kłamstwo obiegnie Ziemię”.

Prof. Katarzyna Chałubińska-Jentkiewicz pytana przez nas o komentarz dotyczący problemu deepfakes przypomina: „Należy przyjąć, że deepfake to kolejny instrument służący kreacji zagrożeń w cyberprzestrzeni. Bardzo często zagrożeń nienamacalnych, niematerialnych, a więc tym bardziej niebezpiecznych, opartych wyłącznie na intuicyjnym odbiorze treści przez użytkownika sieci oraz na manipulacji jego poczuciem tego, czym jest prawda” – zaznacza.

Dodaje, że najskuteczniejsza walka z fałszywymi przekazami będzie wspólnym zadaniem dla wszystkich zainteresowanych stron, w szczególności dla władzy publicznej, ale też firm informatycznych, organizacji społecznych i mediów. Jednak głównymi uczestnikami tej batalii będą zwykli ludzie - konsumenci danych, główne ofiary wojny w cyfrowym świecie.

„Nie jesteśmy obecnie przygotowani na czekające nas wyzwania”

Czy zatem – jako użytkownicy – jesteśmy gotowi na tę „wojnę w cyfrowym świecie”? Paweł Terpiłowski, redaktor naczelny Stowarzyszenia Demagog, które na co dzień zajmuje się fact-checkingiem informacji, podkreśla w rozmowie z CyberDefence24.pl, że technologia deepfake’ów jest udoskonalana w niezwykle szybkim tempie, dzięki coraz lepszym możliwościom uczenia maszynowego. „Algorytmy coraz lepiej pozwalają naśladować osoby publiczne. W niedalekiej przyszłości jest bardzo prawdopodobne, że będzie można stworzyć od A do Z całkowicie nieprawdziwe przemówienie ważnego polityka, z doskonałą synchronizacją ruchu warg i imitacją barwy głosowej dzięki syntezatorom mowy” – ocenia.

Dodaje, że coraz większe możliwości technologiczne w zakresie zjawiska deepfake stwarzają idealne warunki do szerzenia dezinformacji. „Coraz bardziej wyrafinowanej dezinformacji. Niestety, wydaje mi się, że nie jesteśmy obecnie przygotowani na czekające nas wyzwania w tym zakresie. Już teraz nie jesteśmy odporni na zdecydowanie prostsze mechanizmy dezinformacyjne, biorąc pod uwagę, jaką popularnością cieszą się chociażby fejkowe profile osób publicznych na Twitterze. Wraz z postępem technologicznym dezinformacja będzie coraz trudniej weryfikowalna dla użytkowników internetu, jeśli nie zmienimy swojego podejścia do konsumpcji informacji w sieci na bardziej krytyczne i refleksyjne” – przestrzega.

Zobacz również: #CyberMagazyn: Czy fake newsy są nielegalne? Wokół problemów prawnych dezinformacji

Nowe podejście do faktów

Zdaniem prof. Katarzyny Chałubińskiej-Jentkiewicz związek mediów z prawdą był od początku „relacją burzliwą”, a sposoby dokumentowania rzeczywistości i jej przekaz podlegają zmianom stosownie do kontekstów kulturowych, społecznych i politycznych.

„W warunkach postprawdy świadomość nowego podejścia do faktów pogrąża zachodnie, zwłaszcza te tradycyjne, media w stanie pesymizmu. I jest to zrozumiałe, ponieważ w świecie informacyjnym, w którym często nie można oprzeć się na rzetelnych danych, gdzie dowody i prawdziwe świadectwa przestają być głównym sposobem dialogu społecznego, odbiorca informacji traci grunt pod nogami, czuje się bezradny i zdezorientowany. To uderza w tradycyjny system wartości i dotychczasowe zasady etyki. Wydaje się, że współczesny człowiek ma >>alternatywną etykę<<, która pozwala mu nie odczuwać dyskomfortu psychicznego, kiedy kłamie – zwraca uwagę profesor w komentarzu dla CyberDefence24.pl.

Przypomina również, że pojęcia – dotąd nie tak popularne jak: alternatywne fakty, moja prawda, alternatywna wersja rzeczywistości – dziś przechodzą do porządku dziennego.

„Ralph Keyes zwracając uwagę na procesy, które doprowadziły świat do postprawdy, wskazuje na wpływ filozofii i estetyki postmodernizmu, który rozpowszechnił się w kulturze masowej poprzez dzieła sztuki, literatury, kina. Postmodernizm usankcjonował relatywizm, obojętność wobec problemu oddzielenia prawdy od kłamstwa lub nawet niemożność takiego oddzielenia” – komentuje ekspertka, dodając, że z jednej strony ogromna liczba źródeł, nowoczesne formy przekazywania informacji, brak ich wiarygodności doprowadziły do utraty zaufania do materiału informacyjnego, który zawiera fakty.

Stwierdza, że z drugiej strony znaczenie zyskują różne przekazy, z różnych źródeł, niezależnie od ich wiarygodności. „William Davis mówi, że od społeczeństwa faktów cywilizacja przechodzi do społeczeństwa danych, a deepfakes staje się naturalną konsekwencją tych zmian. Deepfakes będzie kreować przyszłą rzeczywistość, która zatraci walor obiektywności. W tym sensie będziemy mieli do czynienia z tego rodzaju przekazem częściej i w odmiennych obszarach życia społecznego” – uważa prof. Katarzyna Chałubińska-Jentkiewicz.

Czy rzeczywiście mamy się czego obawiać?

Badacze z Massachusetts Institute of Technology mają nieco inne zdanie na temat wpływu deepfakes na politykę. Z analizy, którą zrealizowano wynikało bowiem, że może nie być to „polityczna apokalipsa”, a wideo wcale nie ma tak dużego wpływu – jak się powszechnie uważa – w porównaniu do tworzonych w sieci tekstów. Na ponad 7,6 tys. uczestnikach z USA, podzielonych na trzy grupy przeprowadzili badanie: jedną z grup poprosili o obejrzenie losowej reklamy politycznej lub wideo na temat pandemii COVID-19. Druga miała przeczytać transkrypcję tych wideo, a trzecia nie otrzymała żadnego materiału. Następnie otrzymali ankietę, w której mieli stwierdzić wiarygodność obejrzanych lub przeczytanych wiadomości i ocenić, w jakim stopniu się z nimi nie zgadzają. Z analizy wynikało, że wideo niewiele bardziej niż tekst przekonuje odbiorców do stawianych w nim tez. Wniosek był zatem następujący: zmanipulowane filmy, przedstawiające danego polityka prawdopodobnie nie wpłyną na poglądy wyborców, choć mogą zatrzymać jego wzrok na dłużej w szumie informacyjnym, z jakim obecnie się zmagamy.

Inny pogląd na sprawę ma jednak prof. Katarzyna Chałubińska-Jentkiewicz, która uważa, że coraz bardziej finezyjne i technologicznie zaawansowane formy deepfake będą miały większe możliwości oddziaływania na zachowania i postawy ludzi, którzy w chaosie informacyjnym niekoniecznie mogą mieć tego świadomość.

„To zjawisko niebezpieczne dla jednostek oraz dla całych społeczności i państw. Dlatego czujne i odpowiedzialne muszą być przede wszystkim same media. W pierwszym tygodniu stycznia 2020 roku Facebook ogłosił, że będzie ze swojej platformy usuwał nagrania modyfikowane przez algorytmy sztucznej inteligencji za wyjątkiem tych, które stanowią parodię lub satyrę oraz tych, które zostały zmodyfikowane wyłącznie w celu zmiany kolejności padających w nagraniach słów” – przypomina nasza rozmówczyni.

Jakie to ma znaczenie w kontekście obrony cyberprzestrzeni i wyzwań, które ze sobą niesie jej ochrona? Profesor przypomina słowa senatora Marco Rubio, kandydata w prawyborach prezydenckich w USA w 2016 roku, który powiedział: „w dawnych czasach, aby zagrozić Stanom Zjednoczonym, trzeba było mieć lotniskowce, bomby atomowe oraz pociski rakietowe dalekiego zasięgu. Obecnie wystarczy jedynie dostęp do sieci internetowej w USA, do amerykańskiego systemu bankowego, do sieci elektrycznej i infrastruktury oraz w coraz większym stopniu jedynym czego trzeba, to umiejętność tworzenia bardzo realistycznych, ale fałszywych, materiałów audiowizualnych, które mogą zakłócić i podważyć proces wyborczy, co wywoła potężny kryzys i niesłychanie osłabi kraj wewnętrznie”.

Czy tak się stanie – czas pokaże. W zalewie fake newsów i ogromie pracy, jaką już dzisiaj mają fact-checkerzy można postawić jednak tezę – miejmy nadzieję, że mylną – że kiedy problem stanie się masowy, jak zwykle może okazać się, iż przespaliśmy swoją szansę, by odpowiednio się do tej walki przygotować.


Chcemy być także bliżej Państwa – czytelników. Dlatego, jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected] Przyszłość przynosi zmiany. Wprowadzamy je pod hasłem #CyberIsFuture. 

image
Fot. Reklama

Komentarze

    Czytaj także