Reklama

Polityka i prawo

Operacje dezinformacyjne w cyberprzestrzeni (SCS 2017)

Fot. CyberDefence24
Fot. CyberDefence24

Podczas IV edycji Security Case Study 2017 Kamil Basaj z Fundacji Bezpieczna Cyberprzestrzeń wystąpił z referatem „Operacje dezinformacyjne w cyberprzestrzeni”. Jak zauważył istnieje wiele sposobów „uzbrojenia” informacji, a propaganda i dezinformacja to tylko jedne z nich.

Jak zauważa ekspert, operacje dezinformacyjne mają kształtować obszary informacyjne dla różnych grup odbiorców. Coraz więcej osób młodego pokolenia korzysta z mediów społecznościowych jako podstawowego źródła informacji. Ten proces i nawyki myślowe mogą być wykorzystane i uzbrojone w postaci dezinformacji i propagandy, ale nie tylko.

Zidentyfikowanie wzorców myślenia ma ograniczone możliwości dla stworzenia jednego, uniwersalnego modelu, jednak wyodrębnia się kilka podstawowych elementów. Informacje ze świata zewnętrznego przetwarzamy w świadomości i podświadomości, gdzie jest proces ich kategoryzowania i wartościowania, jednak przeciwnikom informacyjnym chodzi również o skuteczne oddziaływanie na obszar naszej nieświadomości, czyli sferę, w której dopiero budujemy swoją wiedzę i oceny, zanim trafią one do świadomości i zostaną sklasyfikowane.

Jak mówi Basaj: „Kształtowanie świadomości odbiorców jest szerokim celem infoagresora. Polega ono na wykorzystaniu naszej podatności przy budowaniu przekazu informacyjnego. Jest wiele sposobów manipulacji czy zakłócania faktów. Ważne jest także, aby zintoksykowane przekazy, czyli takie po ingerencji ze strony przeciwnika, kierowane do konkretnych grup odbiorców, rzeczywiście do nich trafiły”.

Ekspert twierdzi, że można stworzyć broń informacyjną. Nie chodzi tu już tylko o dezinformację, propagandę czy fałszywe informacje (fake newsy). To też przekazy sugestywne w obrazie i dźwięku, gdyż to wpływa na odbiorcę najbardziej. Należy pamiętać, że przeciwnik informacyjny stara się cały czas oddziaływać na nas informacyjnie. Agresor tworzy określony model refleksyjny na podstawie przeanalizowanych zachowań w sieci i dostosowuje do nich wzorzec działania. Do tych ostatnich wykorzystuje się liderów opinii oraz botnety, aby brali udział w wymianie opinii, interakcjach, generowaniu ruchu w sieci i poszerzaniu kręgu odbiorców.

Poza środowiskiem informacyjnym mamy szereg innych okoliczności, które wpływają na okoliczności informacyjne. Przykładem okoliczności może być jakieś określone wydarzenie. Co ważne, można wykorzystać sytuacje losowe, ale wydarzenia mogą być inspirowane lub celowo organizowane dla danego przekazu informacyjnego.

Ważne jest, aby pamiętać, iż przeciwnik działa na różne sposoby. Częstą sytuacją jest posługiwanie się emocjami, aby skłaniać użytkownika do podejmowania określonych decyzji, interakcji, budzić lęk czy zasiać niepewność. Jednocześnie odbiorca jest nieustannie poddawany konkretnym przekazom, które mają także budować wizerunek inforagresora. Ta pierwsza kwestia opiera się na zasadzie ciągłości oddziaływania, dostosowanej do modelu aktywności odbiorcy, aby długofalowo wzmacniać automatyczne reakcje u odbiorcy informacji. Ułatwia to proces tzw. zarządzania refleksyjnego. Z kolei ukrywanie własnej, prawdziwej tożsamości i celów przez przeciwnika jest nieodłącznym elementem całego procesu.

Obserwowanie reakcji użytkowników Internetu pozwala dostosować i uskuteczniać model działania – w czasie ciągłym można kontrolować zachowania/percepcję odbiorcy informacji. W dane obszary poznawcze użytkownik może trafiać zainspirowany (np. śmieszne memy, określone kolory, grafiki, ciekawe opinie – nikt nas nie zmusza do korzystania z danego źródła). Działania tego typu są szerokie, a pokrywające się z danym, zakłóconym przekazem linie narracji wychodzą poza dane medium czy środowiska lub grupy tematów.

Tropy merytoryczne pozwalają identyfikować pociski informacyjne (korelacja słów, kolorów, obrazów, czyli wzorca dystrybucji danego przekazu). Jak mówi Basaj: „odwracając ten proces – identyfikując zintoksykowane informacje można identyfikować pochodzenie informacji, metody kształtowania odniesień do innych materiałów, znajdujących się w pewnym ciągu logicznym rozumowania materiału pierwotnego. Są to tzw. tropy. Idąc dalej dostrzec można obszary informacyjne tworzone przez obiekty informacyjne”. Jako przykład podaje tu fakt, iż Sputnik dystrybuuje swoje materiały do szeregu grup czy źródeł w różnych kategoriach: demokracja, wolność słowa, teorie spiskowe itp. Później z tego poziomu trafiają dalej, do blogosfery, w szerokim rozumieniu jako platform do wyrażania opinii, a stamtąd do mediów i w inne obszary przestrzeni informacyjnej poprzez m.in. podrzucanie linków, dyskusje światopoglądowe, fora internetowe itp. Innymi słowy przenikają do realnej infosfery osób nie korzystających z rosyjskich czy prorosyjskich mediów.

Wykorzystywane są też hybrydy, polegających na wycinaniu pojedynczych akapitów i manipulowania nimi, modyfikacji ich znaczenia. Kształtuje się także alternatywne tło informacyjne dla wydarzeń z przeszłości, aby modyfikować przekaz o przyszłości. Da się to identyfikować i dzięki temu prognozować plany przeciwnika na podstawie jego bieżących działań. Przy działaniach analitycznych warstwa merytoryczna i tło informacyjne mogą sugerować, które z obiektów są zaangażowane w daną narrację.

Co podkreśla ekspert: „Nie chodzi tylko o zwiększanie ilości publikacji, ale zasięgu istniejących informacji. Działanie przeciwnika informacyjnego należy rozpatrywać na tych dwóch płaszczyznach. Ważne jest też zachowanie ciągłości oddziaływania, np. stałe wpuszczanie antynatowskich informacji i okresowe ich zwiększanie przy określonych okolicznościach”.

Na podstawie analiz Fundacji Bezpieczna Cyberprzestrzeń można wyodrębnić następujące proporcje treści propagandowych i dezinformacyjnych w polskim Internecie:
- 23% – kształtowanie negatywnego wizerunku Ukrainy w Polsce (Ukraina jako państwo upadłe, roszczenia terytorialne, dezinformacja, manipulacje, propaganda),
- 38% – przedstawianie negatywnego wizerunku sojuszników Polski (głównie USA, ich dążenia totalitarne/agresywne/imperialne, wywołanie strachu),
- 32% – kreowanie pozytywnego obrazu Rosji (wykorzystanie wzorca refleksyjnego, w zależności od przeciwnika),
- 18% – negatywne obrazowanie UE („zgniły Zachód”, ale i wzbudzanie poczucia niebezpieczeństwa i niestabilności, a im bardziej się ktoś czuje zagrożony tym podatniejszy jest na zastraszanie i propagandę),
- 17% – dezawuowanie polskiej państwowości/kształtowanie negatywnego wizerunku Polski
- 23% – deprecjacja obszaru obronności Polski (atakowanie polskich sił zbrojnych, ich możliwości, wyśmiewanie ich, nawiązywanie do klęsk w przeszłości, obniżanie morale i myślenia aktywnych działań obronnych),
- 17% – budowanie negatywnego obrazu imigracji i uchodźców,
- 4% – manipulowanie obszarem informacji związanym z sektorem energetycznym (działania informacyjne ale i kinetyczne, jak np. fizyczne blokady dostaw).

Czytaj więcej: SKANER Cyberdefence24: Rosyjska wojna informacyjna wobec Polski. Internet – newralgiczny obszar

Reklama
Reklama

Komentarze