Rosja wykorzystuje AI podczas operacji. Jest reakcja Amerykanów

Autor. Sergey Beschastnykh/Unsplash / Levart_Photographer/Unsplash
Rosjanie nie ustają w prowadzeniu szkodliwych działań w cyberprzestrzeni. Wykorzystanie do tego celu sztucznej inteligencji nie powinno dziwić – zwłaszcza w przypadku dezinformacji. OpenAI podaje jednak, że ich modele zostały użyte także do tworzenia malware.
Operacje grup działających na zlecenie Kremla wymierzone są w m.in. infrastrukturę krytyczną, jak opisywany na naszych łamach przypadek cyberataku na wodociągi. Jak z kolei mówił podczas Defence24 Days Dowódca Komponentu Wojsk Obrony Cyberprzestrzeni gen. dyw. Karol Molenda, w przestrzeni wojskowej odnotowano przeszło 4,2 tys. incydentów.
Chcesz malware? AI ci pomoże
Jednym z narzędzi bardzo chętnie wykorzystywanym przez atakujących związanych z Rosją jest sztuczna inteligencja. Uwagę na to zwraca OpenAI w nowym raporcie Disrupting malicious uses of AI – oprócz Kremla, wskazano w nim także na działania Iranu, Chin czy filipińskich hakerów.
W przypadku przedstawionym w raporcie, jeden z rosyjskich aktorów zagrożeń postanowił stworzyć malware, którego celem byli gracze – udawało ono celownik do tzw. strzelanek. ChatGPT wykorzystano do pomocy przy pisaniu złośliwego kodu, m.in. poprzez udoskonalanie jego działania w systemie Windows, konfigurację infrastruktury poleceń i kontroli, czy w końcu debugowaniu kodu.
„Aktor wykazał się znajomością wewnętrznych elementów systemu Windows i przejawiał pewne zachowania związane z bezpieczeństwem operacyjnym” – czytamy w dokumencie opublikowanym przez OpenAI. Lista funkcji dodanych do malware obejmuje m.in. payload C2 unikający wykrycia w oparciu o sygnatury, eskalację przywilejów w systemie, czy kradzież danych z przeglądarki wraz z powiadomieniem na dedykowanym kanale Telegram.
„Pomimo wysiłków aktora zagrożeń, wykryliśmy tę aktywność dzięki naszemu skalowanemu procesowi wykrywania nadużyć cybernetycznych. Skoordynowaliśmy działania z dostawcą hostingu kodu w celu usunięcia złośliwego repozytorium” – wyjaśniono w raporcie.
Co ciekawe, na danym koncie ChataGPT Rosjanin dokonywał tylko jednej poprawki kodu, po czym porzucał je na rzecz kolejnego. OpenAI podjęło decyzję o zbanowaniu ich wszystkich.
Czytaj też
Wsparcie dla dezinformatorów
Największą pomoc ze strony AI Rosjanie otrzymują jednak w kontekście dezinformacji. To właśnie narzędzie OpenAI zostało wykorzystane do rozpowszechniania fałszywych narracji na terenie Niemiec. Opisana w dokumencie aktywność miała dotyczyć wyborów w tym kraju. Pojawiała się również krytyka Sojuszu Północnoatlantyckiego i Stanów Zjednoczonych.
Według twórców modeli, aktorzy zagrożeń używali ChataGPT do tłumaczenia rosyjskich tekstów na angielski. W raporcie napisano też, że poszukiwano jawnych informacji o opozycyjnych aktywistach niemieckich czy blogerach.
Wygenerowane treści były dystrybuowane przez aktorów zagrożeń na kanale Telegram, zatytułowanym Nachhall von Helgoland (pol. Echo Helgolandu). Rzekome medium lokalne z archipelagu wysp na Morzu Północnym zdobyło 1,7 tys. subskrybentów w komunikatorze.
Czytaj też
Echo niemieckich wyborów
OpenAI zwraca również uwagę, że treści z NVH trafiały także na strony Pravdy – sieci dezinformacyjnej, również mającej powiązania z Kremlem. Wygenerowane przez sztuczną inteligencję treści pojawiały się również na portalu X (dawny Twitter), gdzie jedno z kont wykorzystywanych do dystrybucji posiadało 27 tys. polubień.
O Pravdzie było głośno kilka miesięcy temu – wspominał o niej NASK w kontekście wyborów prezydenckich w Polsce. Niemniej jednak, twórcy ChataGPT ocenili tę sprawę jako poziom drugi. Sprawcy byli aktywni na wielu platformach, jednak autentyczne zaangażowanie odbiorów było bardzo niskie.
Czytaj też
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na:[email protected].
Operacje Wojska Polskiego. Żołnierze do zadań dużej wagi
Materiał sponsorowany