Reklama

Cyberbezpieczeństwo

Trendy na 2025: Rozwój AI, wyścig zbrojeń, polaryzacja

Co nas czeka w 2025 roku w branży przeciwdziałania dezinformacji i nowych technologii?
Co nas czeka w 2025 roku w branży przeciwdziałania dezinformacji i nowych technologii?
Autor. Canva

Co nas czeka w 2025 roku? „Ciągły rozwój AI i wyścig zbrojeń w tym zakresie. Rosnąca polaryzacja społeczna i brak zaufania do mediów i instytucji państwowych. Ogólny chaos informacyjny i większa skala skutecznej dezinformacji, która będzie przybierać nowe formy, np. będzie łączona z incydentami dotyczącymi cyberbezpieczeństwa lub na bieżąco reagować na sytuacje kryzysowe” - prognozuje Marcel Kiełtyka ze Stowarzyszenia Demagog.

Marcel Kiełtyka - od 2016 roku związany z pierwszą w Polsce organizacją fact-checkingową Demagog, gdzie rozwijał swoje kompetencje jako wolontariusz, analityk, koordynator oraz specjalista ds. komunikacji i PR. Obecnie pełni funkcję Członka Zarządu oraz Dyrektora Działu Komunikacji i PR.

Marcel Kiełtyka, Stowarzyszenie Demagog
Marcel Kiełtyka, Stowarzyszenie Demagog
Autor. Archiwum prywatne

Jak podsumowałbyś rok w branży przeciwdziałania dezinformacji i nowych technologii?

Marcel Kiełtyka, Demagog: Z punktu widzenia organizacji fact-checkingowej zajmującej się również weryfikacją słów i obietnic polityków był to bardzo intensywny rok, ponieważ byliśmy świadkami dwóch kampanii wyborczych, które, patrząc globalnie, odbywały się niepewnych czasach i w państwie z dużą polaryzacją społeczną, co zawsze przyczynia się do rozpowszechniania dezinformacji i chaosu informacyjnego. Globalnie był to również rok superwyborów. Na całym świecie odbyło się ponad 70 głosowań. Niemal we wszystkich próbowano wpłynąć na ich wynik za pomocą dezinformacji, znamy co najmniej jeden przypadek, gdzie druga tura m.in. z tego powodu została odwołana. W ogromnej części wykorzystano treści wygenerowane przez sztuczną inteligencję.

W sytuacji, gdy zaufanie społeczne do mediów jest niskie również w Polsce, a nowe technologie, w tym generatywna AI ułatwiają tworzenie i rozpowszechnianie fałszywych treści, w 2024 roku mieliśmy również do czynienia z początkiem wyścigu zbrojeń. Powstawały nowe narzędzia technologiczne do zwalczania fake news, ale też do ich tworzenia i oszukiwania ludzi oraz algorytmów mających je wyłapywać.

Nie obyło się także bez ważnych lokalnych i światowych wydarzeń, wojen czy kryzysów, które były świetną przestrzenią do siania dezinformacji, również tej inspirowanej przez aktorów zewnętrznych.

Reklama

Podejście systemowe do walki z dezinformacją

Jakie najważniejsze zmiany przyniosły ostatnie 12 miesięcy?

W Polsce warto dostrzec wzmożone wysiłki instytucji państwowych, jak chęć powołania Rady do spraw odporności na dezinformację międzynarodową przy MSZ czy ujęcie kwestii dezinformacji w strategii cyfrowej Ministerstwa Cyfryzacji, które mocniej zwracają uwagę na systemowe przeciwdziałanie dezinformacji. Na poziomie międzynarodowym widać także ściślejszą współpracę z instytucjami unijnymi czy środowiskami ekspertów zajmującymi się walką z dezinformacją - po to, aby skuteczniej jej przeciwdziałać.

Co okazało się być największym wyzwaniem w 2024 roku w branży przeciwdziałania dezinformacji w Polsce?

Nadal brakuje ścisłej koordynacji organizacji, instytucji, naukowców i pojedynczych, ale istotnych podmiotów zajmujących się badaniem i reagowaniem na dezinformację. Są podejmowane wysiłki państwowe, ale nadal brakuje jednego organu, który mógłby skutecznie połączyć te wysiłki i zorganizować także niezbędną komunikację strategiczną ze społeczeństwem. Co więcej, nadal właściciele największych platform społecznościowych nie podejmują wystarczających wysiłków mających na celu ograniczenie dezinformacji i szkodliwych treści, które zyskują tam ogromne zasięgi. Wciąż widzimy tam wiele scamów i deepfake«ów, które nie są odpowiednio oznaczane i usuwane.

Czytaj też

Atak na PAP

Jakie incydenty bezpieczeństwa z 2024 roku wyróżniłbyś jako kluczowe w skali globalnej oraz w Polsce?

W Polsce na pewno incydent z cyberatakiem na serwery PAP-u, gdzie rzekomo Donald Tusk miał ogłosić częściową mobilizację. W taki sposób najprawdopodobniej zagraniczni aktorzy chcieli siać dezinformację.

W prorosyjskiej dezinformacji od dawna wykorzystuje się narrację o „wciąganiu” Polski do wojny. Pojawiały się także niebezpieczne fake news dotyczące sytuacji kryzysowych, które mogły powodować panikę i chaos informacyjny, choćby z rzekomym wysadzaniem wałów podczas powodzi, ta dezinformacja była najpierw publikowana w sieci, ale okazało się, że znalazła się osoba przebrana w mundur i strasząca wysadzaniem wałów w miejscach powodzi.

W skali globalnej zauważamy nasilenie się działań dezinformacyjnych aktorów zagranicznych, którzy coraz śmielej ingerują w procesy wyborcze państw demokratycznych oraz są nastawione na polaryzację społeczną i zmianę ogólnego postrzegania spraw o szczególnej wrażliwości dla bezpieczeństwa państwa. Widzimy kontynuowane i nowe operacje informacyjne, jak choćby Doppelganger czy Overload, wymierzone również w fact-checkerów. 

Czytaj też

Reklama

Rozwój AI, wyścig zbrojeń, polaryzacja

Jakie najważniejsze trendy wskazałbyś na nadchodzący 2025 rok?

Ciągły rozwój AI i wyścig zbrojeń w tym zakresie. Rosnąca polaryzacja społeczna i brak zaufania do mediów i instytucji państwowych. Ogólny chaos informacyjny i większa skala skutecznej dezinformacji, która będzie przybierać nowe formy, np. będzie łączona z incydentami dotyczącymi cyberbezpieczeństwa lub na bieżąco reagować na sytuacje kryzysowe.  

Jaką decyzję z 2024 roku można było podjąć inaczej?

Wszystkie decyzje dotyczące czasu wprowadzania koordynacji wysiłków instytucji państwowych, ekspertów i niezależnych organizacji oraz szybszą implementację DSA. Niestety nadal brakuje państwowych, silnych i niezależnych politycznie mediów, które mogłyby odbudować wiarygodność w oczach społeczeństwa i pełnić funkcję edukacyjną oraz rzetelnego przekaźnika najważniejszych informacji.

Jak AI zmieniła dziedzinę, którą się na co dzień zajmujesz?

Powstają nowe formy dezinformacji z wykorzystaniem generatywnej AI, takie jak automatyczne, szybko pisane teksty, obrazy czy filmy, dzięki którym stosunkowo małym kosztem można szybko wprowadzić kogoś w błąd i które zwiększają skalę dezinformacji. Na szczęście nie mamy jeszcze do czynienia z zalewem deepfake«ów np. podczas wyborów, jednak to prawdopodobnie kwestia czasu.

Co więcej, pojawia się również problem z odpowiednim oznaczaniem treści wygenerowanych przez AI tworzonych bez celu wprowadzania w błąd. Z drugiej strony powstają kolejne narzędzia, które mogą pomóc nam w automatycznym wykrywaniu i obalaniu fake newsów.

Czytaj też

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama
Reklama

Haertle: Każdego da się zhakować

Materiał sponsorowany

Komentarze

    Reklama