CYBERMAGAZYN
#CyberMagazyn: Sztuczna inteligencja i ochrona infrastruktury krytycznej. "AI to broń obosieczna"
„Obawiam się, że bez odpowiedniej kontroli, możliwości AI, które w strategii i optymalizacji przewyższą zdolności ludzkie, zostaną wykorzystane do ataków terrorystycznych. Niestety, wprowadzenie skutecznej kontroli do obecnych rozwiązań AI nie jest proste” - uważa dr Tomasz Michalak z Uniwersytetu Warszawskiego i IDEAS NCBR.
Czy sztuczna inteligencja może pomóc w ochronie infrastruktury krytycznej? A może AI jest głównie zagrożeniem dla strategicznych budynków w państwie?
O to zapytaliśmy dra Tomasza Michalaka, lidera zespołu badawczego w IDEAS NCBR oraz wykładowcę na Wydziale Matematyki, Informatyki i Mechaniki Uniwersytetu Warszawskiego.
Michał Górski, CyberDefence24: Na samym początku, w celu uporządkowania pojęć, którymi będziemy się posługiwać, poprosiłbym o zdefiniowanie czym jest infrastruktura krytyczna?
Dr Tomasz Michalak: Nieformalnie, infrastruktura krytyczna to wszystkie zasoby i systemy, które są niezbędne do funkcjonowania gospodarki państwa. Dotychczas, za infrastrukturę krytyczną uznawano podmioty z takich sektorów jak np. wszelkiego rodzaju sieci telekomunikacyjne, energetykę (zarówno elektrownie jak i sieci), wodociągi, szpitale i placówki ochrony zdrowia, itp. Są to te wszystkie sektory, których problemy z funkcjonowaniem przekładają się na istotne problemy dla społeczeństwa i gospodarki. Zatem infrastrukturą krytyczną nie są np. obiekty kultury.
Tym niemniej, w odpowiedzi na obecne wydarzenia, jak i zwiększającą się złożoność systemów społeczno-gospodarczych, Unia Europejska wprowadza nowe regulacje, które zmieniają rozumienie infrastruktury krytycznej. Według nowego podejścia, obowiązkiem nie jest ochrona obiektów, ale usług. Oznacza to, że chronimy nie tylko wodociągi, ale ochronie podlega także cały ekosystem, który powoduje, że wodociągi funkcjonują. Odchodzimy więc od myślenia o podmiotach na rzecz myślenia funkcjonalnego. Moim zdaniem są to zmiany w bardzo pozytywnym kierunku.
Czytaj też
"Ochrona to także dbałość o techniczną sprawność"
Ostatnie pół roku to czas wzmożonej dyskusji na temat sztucznej inteligencji i jej wpływu na nasze życie. A jak AI może oddziaływać na infrastrukturę krytyczną i jej ochronę?
Pojazdy bezzałogowe to bardzo przykład wykorzystania sztucznej inteligencji do ochrony infrastruktury krytycznej. Możliwości i potrzeby w tym kontekście są ogromne. Sztuczna inteligencja może zastąpić człowieka przy wielu czynnościach, które są żmudne, męczące i niebezpieczne. Ona ma swoje wady, ale też niewątpliwe zalety: nie męczy się, wykonuje zadania zawsze z tą samą uwagą, jak i też może podejmować ryzyko, którego nie podjąłby się człowiek.
Podam dwa przykłady. Jeden to systemy oparte na analizie obrazu video, które wspomagają operatorów kamer CCTV. Przy tej liczbie urządzeń, niezbędna jest automatyczna detekcja ruchu, w różnych warunkach pogodowych, czy też sabotażu samych urządzeń, gdyż jeden operator nie jest w stanie obsłużyć wszystkich. Systemy, które oferują tego typu możliwości, jak detekcja ruchu, czy nawet określonych zachowań, są już znane, produkowane, między innymi - przez polskie firmy. Mój zespół badawczy w IDEAS NCBR rozwija te systemy poprzez badania nad algorytmami, które optymalnie dobiorą czas, który operator powinien spędzić nad każdą z kamer w zależności od ich konkretnego umiejscowienia i w kontekście oceny ryzyka.
Drugim przykładem wykorzystania AI w ochronie infrastruktury krytycznej są wszelkiego rodzaju prace związane z konserwacją obiektów. Dzięki pojazdom bezzałogowym jesteśmy w stanie bardzo usprawnić, zarówno detekcje, jak i naprawę wielu uszkodzeń. O tym się często zapomina, ale bezpieczeństwo funkcjonowania infrastruktury krytycznej to także jej techniczna sprawność i stabilność.
Jakie ataki jest w stanie wykryć sztuczna inteligencja?
Zarówno kinetyczne, tak jak już wspomniałem w kontekście kamer CCTV, jak i cybernetyczne. Sfera cyberbezpieczeństwa jest moim zdaniem sztandarowym przykładem wykorzystania AI w ochronie infrastruktury krytycznej: AI jest w stanie analizować ogromne ilości danych, w tym ruch internetowy czy zachowanie użytkowników oraz ich wzorce aktywności.
AI wykorzystuje się już od dawna do analizy treści e-maili w celu zapobiegania atakom phishingowym. Są one niezwykle istotne w kontekście infrastruktury krytycznej, gdyż najsłabszym ogniwem systemów ochrony jest najczęściej człowiek. Wiele ataków na infrastrukturę krytyczną ma formę ataku phishingowego, gdzie bariery cyberbezpieczeństwa atakujący stara się obejść poprzez wykorzystanie błędu człowieka. Świetnym przykładem jest tutaj wirus Stuxnet, który dokonał uszkodzeń w irańskich instalacjach związanych z programem nuklearnym.
W jaki sposób rozpoznawane są przypadki, które powinny zaalarmować odpowiednie służby?
Może opowiem w jaki sposób można wykorzystać metody sztucznej inteligencji do wykrywania nieoczywistych prób ataku. Siłą rozwiązań AI jest tutaj zdolność niezwykle szybkiej analizy względnie dużych strumieni danych i znajdowanie powiązań pomiędzy nawet pozornie niezwiązanymi informacjami.
Tego rodzaju metody wykorzystywane są już szeroko w cyberbezpieczeństwie, ale moim zdaniem, będą one odgrywały coraz większą rolę również we wczesnej detekcji zagrożeń kinetycznych. Przykład: w dużym obiekcie infrastruktury krytycznej zmienia się w jednym momencie zarówno firma cateringowa, jak i pracownicy współpracującej firmy kurierskiej. Być może to przypadek. Być może nie. Aby pionowi bezpieczeństwa nie umknęły tego rodzaju złożenia zdarzeń, wsparciem staną się systemy oparte na AI.
Czytaj też
Terroryści i ChatGPT
Jakie są największe obawy związane z rozwojem AI i ochroną infrastruktury krytycznej? Gdzie może ona szczególnie zawodzić i jak może być wykorzystywana przez potencjalnych atakujących?
W ostatnich latach obserwujemy niebywały wzrost możliwości sztucznej inteligencji, która w coraz większym zbiorze funkcjonalności przewyższa możliwości człowieka. Moim zdaniem największym zagrożeniem jest wykorzystanie AI do przygotowania ataków, w których wykorzystywane będą słabości i ograniczenia pojedynczych ludzi.
Każdy terrorysta może obecnie wykorzystać ChatGPT do planowania ataków optymalnych: przy zadanej ilości materiałów wybuchowych, gdzie i w jakiej sekwencji dokonać ataku, którego rezultatem będzie nie tylko duża liczba ofiar bezpośrednich, ale także pośrednich, poprzez wywołanie paniki tłumu. Jest to oczywiście tylko przykład czarnego scenariusza.
Ogólnie, obawiam się, że bez odpowiedniej kontroli, możliwości AI, które w strategii i optymalizacji przewyższą zdolności ludzkie, zostaną wykorzystane do ataków. Niestety, wprowadzenie skutecznej kontroli do obecnych rozwiązań AI nie jest proste. Na przykład, o ile ChatGPT odmawia odpowiedzi na pytania bezpośrednio związane z przemocą, jest to bardzo łatwo obejść pytaniami pośrednim.
Czy AI już teraz jest wykorzystywana do ochrony/ataków na infrastrukturę krytyczną, czy to dopiero melodia przyszłości?
AI używana jest w podsystemach wielu pojazdów bezzałogowych. Cyberprzestępcy również wykorzystują AI do znajdowania słabych punktów systemów ochrony. Sztuczna inteligencja jest mieczem obosiecznym. Oznacza to, między innymi, konieczność ciągłego rozwoju polskich możliwości w tym kierunku. Aby się bronić musimy rozumieć możliwości potencjalnych wrogów.
dr Tomasz Michalak jest liderem zespołu badawczego w IDEAS NCBR oraz wykładowcą na Wydziale Matematyki, Informatyki i Mechaniki Uniwersytetu Warszawskiego. Kierował międzynarodowymi i krajowymi projektami badawczymi. W czasie kariery naukowej prowadził badania na Wydziale Informatyki Uniwersytetu Oksfordzkiego, Szkole Inżynierii i Informatyki Uniwersytetu w Southampton, Wydziale Informatyki Uniwersytetu w Liverpoolu oraz Wydziale Ekonomii Stosowanej Uniwersytetu w Antwerpii.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].