Cyberbezpieczeństwo
#CyberMagazyn: Politycy narzędziem w rękach Kremla? „Świadomość jest bardzo niska”
Propaganda, dezinformacja i socjotechnika – wojna o umysły ma miejsce każdego dnia. Jak budować społeczeństwo, które nie wierzy w mity i potrafi rozpoznawać fake newsy? Jakich narracji dezinformacyjnych możemy się spodziewać w kontekście Polski? Co możemy zrobić, aby skuteczne walczyć z kampaniami dezinfo? O tym wszystkim rozmawialiśmy z praktykami – osobami, które codziennie namierzają fałszywe wiadomości.
W czasie konferencji Cyber24 Day, organizowanej przez naszą redakcję odbył się panel dotyczący walki z dezinformacją i propagandą. Eksperci dyskutowali o obecnych fake newsach i o tym, jakie kroki można podjąć, by skutecznie im przeciwdziałać. W debacie wzięli udział: gość specjalny wydarzenia Jānis Sārts, Dyrektor NATO Strategic Communications Centre of Excellence; Kamil Basaj, Fundacja INFO OPS Polska; Anna Maria Dyner, analityczka PISM; Małgorzata Kilian-Grzegorczyk, prezeska Stowarzyszenia Demagog; dr Michał Marek, Uniwersytet Jagielloński, Marcin Olender z Google Polska oraz dr Klaudia Rosińska, specjalistka ds. przeciwdziałania dezinformacji w NASK.
Rozpoczynamy panel „Wojna o umysły: dezinformacja i propaganda. Jak się chronić?”. Moderatorem dyskusji jest @BochynskaNikola - redaktor naczelna portalu @CyberDefence24
— CyberDefence24 (@CyberDefence24) October 10, 2023
W panelu udział biorą:@janis_sarts z @STRATCOMCOE@mic_marek z @JagiellonskiUni@malgo_kilian z @DemagogPL… pic.twitter.com/jcZLRx74Mx
Na początek Jānis Sārts, Dyrektor NATO Strategic Communications Centre of Excellence opowiedział co na co dzień robi Centrum, by walczyć z dezinformacją.
„Po pierwsze staramy się zrozumieć problem i to wydaje się proste w teorii, ale nie jest. Podstawą jest tworzenie wiedzy, czym jest kreowanie informacji w wojnie kognitywnej; a następnie eliminowanie dezinformacji poprzez doktryny, trening, nauczanie i analizowanie tego w NATO. To właśnie robimy. Czy to proste? Zdecydowanie nie. To proste tylko w książkach. Jeśli ludzie używaliby mózgu częściej, byłoby to znacznie łatwiejsze, ale zwykle kierujemy się emocjami i instynktem. To nasz problem, a sprawy wyglądają coraz gorzej, sztuczna inteligencja jeszcze pogorszy ten stan” – ocenił.
Następnie dr Klaudia Rosińska przyznała, że w kontekście rozwoju sztucznej inteligencji „z pewnością czeka nas nowa fala treści dezinformacyjnych, które będą znacznie bardziej precyzyjne”.
„Na razie identyfikujemy znacznie lepiej przygotowane ataki phishingowe na przykład takie, które wcześniej charakteryzowały się niespójną gramatyką i błędami ortograficznymi. Teraz jest z tym dużo lepiej, więc już na tym poziomie widać zmianę. Trudniej będzie takiemu »przeciętnemu« użytkownikowi rozpoznać atak” - stwierdziła.
Jak dodała, w czasie kampanii wyborczej nie było widać przełomowego momentu i znacznej zmiany w podejściu do prowadzenia narracji dezinformacyjnych (konferencja Cyber24 Day odbywała się 10 października br. ).
„Nie było widać fiksacji, a zdjęcia generowane sztucznie nie były najpopularniejszym narzędziem dezinformacji wyborczej. Wciąż jednak skuteczniejsze są te tradycyjne formy, czyli manipulacja, perswazja, wyrywanie zdjęć z kontekstu. Przynosi to - póki co - dużo lepsze rezultaty. Być może w tym momencie jeszcze technologie nie są tak potrzebne i może AI wciąż jest troszeczkę niedopracowana” – oceniła przedstawicielka NASK.
Czytaj też
Bazowanie na emocjach
O punktu widzenia fact-checkerów, którzy zajmują się codzienną analizą fake newsów w sieci opowiedziała Małgorzata Kilian-Grzegorczyk, prezeska Stowarzyszenia Demagog.
„Nasz zespół analityków każdego dnia monitoruje debatę publiczną i możemy powiedzieć, że w każdym medium społecznościowym od Telegramu, po Twittera, Facebooka czy Google pojawiały się różnego rodzaju próby ingerencji różnymi metodami” - wskazała.
Podała przykład Aleksandry K. Wiśniewskiej, która była przedstawiana w mediach społecznościowych w kontekście swojej działalności uchodźczej i tego, że rzekomo spotykała się z czarnoskórym mężczyzną. Chodziło o to, by nakręcić wobec niej falę nienawiści. Tego typu wpisy okazały się być nieprawdą, jednak wiele – nie tylko trolli i botów, ale i prawicowych polityków – udostępniło je dalej.
„To, co nas niepokoiło i to, co nas niepokoi nadal, to fakt, że m.in. propaganda rosyjska wykorzystuje wszystkie te emocje, które są również wykorzystywane przez partie. Polityczną, bo myślę, że możemy się zgodzić co do tego, że wątek migracji uchodźców był dominującym w tej kampanii i wiele partii wykorzystywało go do swoich celów” – podkreśliła Małgorzata Kilian-Grzegorczyk.
Czytaj też
Politycy narzędziem w rękach Kremla?
Natomiast dr Michał Marek zwrócił uwagę, że wymienione motywy były wykorzystywane do realizacji „własnych, politycznych interesów i do polaryzacji”.
„Dokładnie te same wątki narracyjne wykorzystywała propaganda rosyjska, np. próbując reklamować właśnie temat m.in. imigrantów z Bliskiego Wschodu i z Afryki jako ten, który pojawił w kampanii Platformy czy również PiS-u. Najbardziej uderzyło mnie jednak i to, co uważam za najbardziej niebezpieczne to fakt, czy partie polityczne są świadome tego, że wyciągając na plan pierwszy tego typu tematy stają się narzędziem w rękach Rosji. I to jest dla mnie najbardziej przerażające, bo świadomość tego, że Rosja może ingerować w nasze wybory jest bardzo niska” – zaznaczył.
Małgorzata Kilian-Grzegorczyk podała przykład, że na Słowacji pojawiło się rzekome nagranie, jakoby jeden z kandydatów miał wykupić głosy wyborców.
„Teraz możecie sobie państwo wyobrazić, co działoby się w Polsce, kiedy pojawiłaby się tego typu nagranie, wygenerowane przez sztuczną inteligencję, na które nie możemy zareagować, ani odpowiedzieć, bo jest przecież cisza wyborcza. To tylko jeden z przykładów na to, jak bardzo sztuczna inteligencja może być wykorzystywana w złym kontekście” – stwierdziła.
Przy tej okazji dr Klaudia Rosińska zwróciła uwagę, że narracja o „fałszywych wyborach” jest dość popularnym i jednocześnie niebezpiecznym trendem: „W Polsce prawie każde wybory »były sfałszowane«, w sensie w narracji powyborczej. Ta teza zawsze gdzieś wybrzmiewała, a jednak nigdy nie skończyło się u nas tak, jak w Stanach czy też innych państwach”.
O kontekst potencjalnej „ingerencji zewnętrznej w wybory w Polsce” był pytany Kamil Basaj i o to, czy świadomość społeczna dotycząca wpływów rosyjskich nie tylko w naszym kraju, ale także w innych państwach, by nastawiać przeciwko Ukrainie zmieniła się.
„Na pewno poziom świadomości społecznej dotyczących takich zagrożeń rośnie, natomiast podejście z nomenklatury operacji psychologicznych stawia nas w dosyć trudnej sytuacji, dlatego że każde tego typu operacje manipulacyjne, dostosowują się do określonych wrażliwości społecznych czy grupy docelowej. Ten poziom świadomości jest po prostu innym stanem wrażliwości - on nie przeszkadza w prowadzeniu operacji, po prostu zmienia warunki, w których takie działanie się prowadzi. Wydaje się kluczowe zdefiniowanie - w kontekście podnoszenia odporności społecznej – tego, z czym tak naprawdę się mierzymy” – stwierdził.
Zdaniem Basaja, operacje informacyjne planowane przez Federację Rosyjską bazują na „siatce psychologicznej, czyli konkretnych emocjach i wrażeniach, jakie chcą wywoływać w odbiorcy”. Jako przykład operacji psychologicznej podał także sytuację na granicy, kiedy Rosja „operowała empatią, prowokacją i jednocześnie strachem”.
„To emocje, które - chcąc nie chcąc - nawet w kontekście wpływu na proces wyborczy - odgrywają swoją rolę, ponieważ inaczej podejmuje decyzję grupa osób która jest zlękniona, a inaczej taka która na przykład funkcjonuje w swojej strefie komfortu” - wyjaśnił.
Czytaj też
Komunikacja oparta na strachu
Janis Sarts ocenił, że „kiedy patrzymy na Rosję i na to, co mówi tamtejsza propaganda, to wiele razy można było się przekonać, że jej komunikacja opiera się na strachu, jest skierowana do konkretnego odbiorcy i to kombinacja narracji, bazującej na emocjach”. „Dla nas to bardzo ważne, aby rozpoznać, nie tylko słowa, ale to jak oddziałują i jaki mają wpływ na przestrzeń informacyjną” - przekazał.
Przy okazji rosyjskich narracji i ich wpływu na społeczeństwo, dr Michał Marek, który na co dzień zajmuje się badaniem wątków dezinformacyjnych propagowanych przez Rosję, zaznaczył, że wiodące narracje są powtarzalne.
„W ciągu roku Rosjanie nie wykazali szczególnej zdolności do kreowania nowego przekazu. (…) Jeżeli popatrzymy na bieżące działania Rosjan i na sytuację w Izraelu to widać narrację o tym, że rzekomo Ukraińcy przekazali broń Hamasowi. Nie jest to żadne novum. Narracja o przekazaniu broni, to tylko aktualizacja dobrze znanego wątku, który istnieje gdzieś w głowie odbiorcy, a ma obrzydzić Ukrainę” – podkreślił.
Zauważył również, że w kontekście wyborów celem Rosji było zakorzenienie poczucia strachu i tego, że „oni chcą doprowadzić do wojny” (PiS i KO), co bezpośrednio ma przekładać się na preferencje wyborcze Polaków.
Białoruś pośrednikiem Rosji
Anna Maria Dyner, która bada narracje dezinformacyjne na Białorusi, wyraziła z kolei pogląd, że sytuacja wygląda tam bardzo podobnie jak w Rosji, ponieważ „Białoruś jest wykorzystywana przez Rosję jako pośrednik w sferze informacyjnej”.
„Natomiast Białorusini bardzo często dodają od siebie nowe wątki, bezpośrednio związane z Polską. Mamy kilka linii narracyjnych, przede wszystkim uruchamianych przez Aleksandra Łukaszenkę, na przykład, że »w Polsce jest źle, że nie ma: kaszy gryczanej, soli, drewna itd. I trzeba to wszystko wysłać<<, a Białoruś jest gotowa oczywiście pomóc, jest gotowa strzec granic i w razie czego odpowiedzieć i >>ruszyć na pomoc«” – objaśniła ekspertka.
Dodatkowo popularnymi narracjami są stwierdzenia, że „Polska jest narzędziem w rękach Stanów Zjednoczonych” i że „jesteśmy tylko marionetką”.
„Białoruska propaganda to jedno. Do tego trzeba dodać oczywiście kryzys graniczny, który od ponad dwóch lat jest bardzo ważnym elementem oddziaływania na polskie społeczeństwo, w tym narracje związane z podważaniem polskiego munduru” - oceniła Anna Maria Dyner z PISM.
Czytaj też
Dezinformacja na stałym poziomie?
Marcin Olender z Google opowiedział, jak wyglądały ostatnie miesiące kampanii z perspektywy firmy technologicznej, która zobowiązała się do walki z dezinformacją. Stwierdził, że jako Big Tech nie odnotowali wysokiego poziomu propagandy i zaawansowanych technik czy ataków wyborczych.
„Nie ukrywam, że szykowaliśmy się na to od wielu miesięcy. Jest cały program przez nas realizowany, związany z wyborami w Polsce, ale też wcześniej na Słowacji, które były bardziej narażone na ataki. W polskiej infosferze nie jest to tak duży problem, jak oczekiwaliśmy. Jakiś poziom aktywności (dezinformacyjnej - red.) jest, ale on jest stały. W języku angielskim istnieją pojęcia »misinformation<< i >>disinformation«. Dezinformacja to kwalifkowane działanie, które jest celowe, jest koordynowane; to coś innego niż kwestie, które mówią pewni ludzie i być może w nie wierzą, a być może nie, a wygaduje bzdury. To coś innego niż skoordynowana akcja. To działania aktorów - głównie Rosji, ale globalnie największym aktorem są Chiny. Raport TAG wskazuje na to jasno. Podam przykład: ściągamy siatkę botów, które dytrybuują rosyjską propagandę, ale może być ich kilkaset, a chińskich np. kilka tysięcy. Tego typu działalność jest stała i wydaje mi się, że w tym okresie nie ma wielkiego natężenia. Było to widać w trakcie i tuż przed inwazją na Ukrainę. (…) Na razie nie jest tak źle, jak sądziliśmy i nie widzimy wielkoskalowego ataku, który mógłby mieć wpływ na wyniki wyborów (debata odbyła się 10 października, a wybory w Polsce – 15 października br.)” - wskazał przedstawiciel koncernu.
Dr Klaudia Rosińska zwróciła uwagę, że jako badacze zaobserwowali zmianę paradygmatu rosyjskich operacji, więc znacznie trudniej jest rozpoznać misinformation, a nie „toporną działalność Rosji”.
„Z czasem nastąpiło bardzo wyraźne przeniesienie aktywności na opinie, gdzie nie ma faktów, gdzie są spekulacje, niedopowiedzenia i budzenie wątpliwości opartych czasem na prawdziwych danych, ale podanych w taki sposób, że wniosek jaki wyciągnie z tego człowiek, jest błędny” – zaznaczyła.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].