Chiński wywiad stoi za największą kampanią szpiegowską z użyciem AI
Autor. CyberDefence24/Canva
W połowie września firma Anthropic, twórca modelu Claude AI, wykryła próby wykorzystania jej technologii do przeprowadzenia ataków hakerskich. Szybko ustalono, że za działaniami stoi chińska grupa operująca na zlecenie służb wywiadowczych.
Jak wynika z raportu Anthropic, grupa hakerska określona jako GTG-1002 działała na rzecz chińskich służb i wykorzystała narzędzie Claude Code, aby przeprowadzić zautomatyzowane ataki przeciwko około trzydziestu organizacjom z sektorów technologii, finansów, przemysłu chemicznego i administracji publicznej.
W ocenie specjalistów był to jeden z pierwszych przypadków, w których model AI nie tylko wspierał atakujących, lecz de facto wykonywał większość operacji za nich.
Przemyślane ataki
Cała kampania została poprzedzona odpowiednim przygotowaniem. Atakujący opracowali strukturę operacji opartą o Model Context Protocol, który pozwalał modelowi na korzystanie z zewnętrznych narzędzi i wykonywanie kolejnych kroków niemal autonomicznie. Kluczowym momentem było zmanipulowanie samego Claude’a, poprzez techniki przypominające klasyczny jailbreaking.
Hakerzy przekonali model, że pracuje w świetle obowiązującego prawa, testując bezpieczeństwo systemów klienta lub wspierając firmę zajmującą się cyberbezpieczeństwem. Po przełamaniu barier model zaczął aktywnie prowadzić rozpoznanie, identyfikować podatności i generować exploity. Zdobywał również poświadczenia i wykorzystywał je do dalszego poruszania się po sieci, aż po etap eksfiltracji danych.
Czytaj też
Skuteczność kampani
Anthropic podkreśla, że w całym procesie interwencja człowieka po stronie grupy atakującej ograniczała się do kilku pojedynczych poleceń, podczas gdy aż 80 do 90 procent działań wykonywała sztuczna inteligencja. Choć sama operacja nie była wolna od błędów, gdyż model czasem tworzył nieprawdziwe lub wyolbrzymione wyniki, to jednak skala automatyzacji okazała się wystarczająca, by osiągnąć sukces w części ataków.
Nowy wektor ataku
Sztuczna inteligencja nie tylko wspiera cyberprzestępców, ale zaczyna przejmować ich rolę. Ataki stają się dzięki temu tańsze, szybsze i znacznie bardziej skalowalne. Mogą być prowadzone nieprzerwanie, na wielu celach jednocześnie, w tempie nieosiągalnym dla człowieka. Dotychczasowe modele obrony, oparte na rozpoznawaniu schematów charakterystycznych dla typowej pracy hakerów, tracą w takiej sytuacji skuteczność.
Dla organizacji i instytucji oznacza to konieczność zmierzenia się z nowym rodzajem zagrożenia. Obrona musi zakładać, że przeciwnik dysponuje narzędziami zdolnymi do natychmiastowej analizy, adaptacji i działania. Konieczne stają się nowe metody monitorowania zachowań w sieci, wzmacnianie kontroli dostępu, a także tworzenie rozwiązań, które będą w stanie rozróżniać aktywność algorytmów od działań wykonywanych przez człowieka.
W szerszej perspektywie to również sygnał alarmowy dla twórców modeli AI. Niezbędne staje się opracowanie zasad dotyczących bezpieczeństwa, które powstrzymają modele od ich wykorzystania w celach cyberprzestępczych.


Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].
Cyfrowy Senior. Jak walczy się z oszustami?