Reklama

Social media

#CyberMagazyn: Sztuczna inteligencja zamiast hakerów? "Socjotechnika pozostanie ludzką domeną"

Fot. Michael Dziedzic/Unsplash
Fot. Michael Dziedzic/Unsplash

Sztuczna inteligencja jest coraz powszechniej stosowana. Staje się też wyraźniej widoczna w segmencie cyberbezpieczeństwa, ale siedzi okrakiem na barykadzie pomiędzy cyberprzestępcami, a systemami ochrony cybernetycznej. Według ekspertów możliwe, że w przyszłości SI stanie po stronie hakerów i pozwoli na dokonywanie precyzyjnych cyberataków praktycznie bez udziału cyberprzestępców. Nie stanie się to jednak z dnia na dzień.

Technologia sztucznej inteligencji (SI) od kilku lat jest traktowana jako rozwiązanie, które w przyszłości ma zmienić oblicze naszej cywilizacji. Już teraz trwają w wielu laboratoriach intensywne i hojnie opłacane prace nad rozwojem SI, a przykładów jej obecnego zastosowania jest coraz więcej.

SI coraz powszechniejsza

Sztuczna inteligencja trafia obecnie do wielu sektorów. Jest m.in. testowana przez wojsko oraz służbę zdrowia.

SI wchodzi także powoli w obszar cyberbezpieczeństwa. Rozwiązania oparte na tej technologii są już w ograniczonym zakresie wykorzystywane przez firmy zajmujące się ochroną przed cyberprzestępcami, jednak ostatni trend wskazuje na możliwość używania sztucznej inteligencji także przez hakerów, na co w rozmowie z CyberDefence24.pl zwracał niedawno uwagę Piotr Kępski z Fundacji Bezpieczna Cyberprzestrzeń.

SI zamiast hakerów to dopiero przyszłość

Na razie sztuczna inteligencja znajduje się na szczycie barykady dzielącej świat cyberbezpieczeństwa od hakerów. Czy w przyszłości ten stan się diametralnie zmieni, SI znajdzie się na usługach „ciemnej strony mocy” i zastąpi w działaniach cyberprzestępców? CyberDefence24.pl zapytał o to ekspertów.

Dr hab. inż. Rafał Leszczyna, wykładowca na Wydziale Zarządzania i Ekonomii Politechniki Gdańskiej przedstawia sytuację po obu stronach pola walki o cyberbezpieczeństwo.

„Badania związane ze stosowaniem sztucznej inteligencji (AI) do wykrywania nieznanych cyberzagrożeń są prowadzone od dobrych trzech dekad” – zaznacza Leszczyna. - „Przykładowo moduły AI uczą się jak wygląda praca bezpiecznego systemu, a następnie znaczące odstępstwa od tego stanu zgłaszają jako potencjalny cyberincydent. Jest to tzw. detekcja anomalii. Ciekawym rozwiązaniem jest też jej wykorzystanie do inteligentnego >>oszukania<< złośliwego oprogramowania, że osiągnęło ono swój cel ataku”.

Według naukowca, współczesne ataki potrafią się tak zakamuflować, że ich wykrycie jest możliwe dopiero na komputerze ofiary. Tymczasem dzięki AI nowoczesne oprogramowanie zabezpieczające potrafi udać taki komputer. W efekcie, atak ujawnia się wcześniej i może zostać zneutralizowany.

Jeśli chodzi o >>drugą stronę barykady<<, to od wielu lat hakerzy powszechnie wykorzystują algorytmy automatycznego rozpoznawania tekstu (OCR), które bazują na AI, do omijania zabezpieczeń opartych o tzw. Captcha. Przestępcy mogą również wykorzystywać sztuczną inteligencję do szybszego łamania haseł. Bazują na znanych już hasłach, które wyciekły z baz danych lub zostały złamane i dzięki metodom głębokiego uczenia generują ogromne zbiory nowych prawdopodobnych haseł. Dzięki temu unikają przeszukiwania wszystkich możliwych kombinacji. Techniki AI wspomagają także redagowanie nowych wiarygodnie wyglądających treści, np. fake newsów. Łatwiejsze jest też podszywanie się pod inne osoby czy na przykład generowanie e-maili do phishingu.

dr hab. inż. Rafał Leszczyna

 

Czy jest możliwe, że w przyszłości sztuczna inteligencja całkowicie zastąpi cyberprzestępców w planowaniu i przeprowadzaniu ataków? Na takie pytanie ekspert nie ma jednoznacznej odpowiedzi.

„Taka sytuacja wymagałaby ogromnego zaawansowania technik AI” – podkreśla Leszczyna. - „Planowanie i przeprowadzanie ataków wymaga doświadczenia, wiedzy, a także dokładnego rozpoznania celu przez atakujących. W efekcie AI, która miałaby przejąć te zadania, musiałaby posiadać możliwości analizy i zarządzania analogicznymi zasobami wiedzy. Upraszczając, sztuczny >>mózg<< stojący za tego typu atakami, musiałby być praktycznie tak samo zaawansowany w budowie, jak mózg człowieka. Obecnie największe sztuczne sieci neuronowe zbudowane na superkomputerach mają wielkość mózgu żaby, czyli około 16 milionów neuronów. Tymczasem, w mózgu ludzkim jest ich około 86 miliardów. Jednak, gdy postęp technologiczny pozwoli konstruować tak złożone architektury, sztuczna inteligencja będzie w stanie wyręczyć cyberprzestępców w wielu czynnościach”.

Cyberprzestępca to zagrożony fach?

Dr Karolina Małagocka, ekspertka w obszarze cyberbezpieczeństwa z Akademii Leona Koźmińskiego w rozmowie z nami przyznaje, że rośnie rola sztucznej inteligencji w segmencie cyberzagrożeń, ale jej zdaniem np. w wypadku ataków z użyciem socjotechniki, SI nie za szybko zastąpi człowieka.

„AI ma za zadanie wspierać myśl ludzką, możliwie najszybciej odkrywać połączenia, wzorce analizując tysiące danych, wykraczając poza granice ludzkiej percepcji” – tłumaczy Karolina Małagocka. - „Nawet tak ogólna definicja pozwala zauważyć przydatność systemów AI po obu stronach barykady. Po jasnej stronie wspiera działania zabezpieczające, analizując tysiące, jeśli nie miliony, przykładów zachowań złośliwych kodów, generując alerty dotyczące potencjalnych naruszeń bezpieczeństwa czy tworząc mechanizmy zabezpieczające wrażliwe dane. Po ciemnej stronie widać niemalże lustrzane odbicie, czyli możliwość analizy sposobów zabezpieczeń, sposobów na ich złamanie lub ominięcie, generując alerty o dostępnych lukach, brakach aktualizacji, a nawet zbiorach niezabezpieczonych systemów czy urządzeń, wreszcie idealnie nadaje się do łamania zabezpieczeń i odszyfrowywania ich dużych zbiorów”.

Jeżeli skupić się na głównych zaletach sztucznej inteligencji w cyberbezpieczeństwie, czyli uczeniu się, możliwości szybkiej analizy dużych zbiorów danych, a tym samym - skracaniu czasu wykrycia i odpowiedzi na nowe zagrożenia, to stanowią one jednocześnie możliwość zastosowania przez cybeprzestępców.

„Uczenie się w czasie wspiera tradycyjne metody ochronne, ale też pozwala tak trenować AI, aby poznawała coraz to nowe metody ich łamania lub nawet łączenia kilku metod w jedno, co z kolei owocuje coraz bardziej skompilowanym wzorcami zachowań niebezpiecznych kodów” – zaznacza Małagocka. - „Szybka analiza dużych zbiorów danych to precyzyjne wyszukiwanie potencjalnych ofiar, chociażby nisko zawieszonych jabłek, jakimi są urządzenia czy systemy bez aktualizacji lub programów zabezpieczających. Możliwe też jest wyszukiwanie informacji ułatwiających dostanie się do systemu, czy lepsze przygotowanie ataku socjotechnicznego. Natomiast niestrudzone powtarzanie procedur to wręcz idealna cecha dla bota, łamiącego hasła dostępu i odszyfrowującego zbiory danych, a to zaledwie kilka przykładów sytuacji, w których można dostrzec dwie strony lustra”.

Sztuczna inteligencja zamiast hakerów? Dla naszej rozmówczyni to ciekawa odmiana wątpliwości czy w przyszłości AI odbierze pracę i komu.

Przynajmniej część cyberprzestępców znajduje się w grupie zagrożonej, podobnie jak inne zawody, które podlegają standaryzacji oraz algorytmizacji. I podobnie jak w innych grupach wszędzie tam, gdzie potrzebne będą kompetencje w zakresie rozumienia drugiego człowieka, jego emocji, zachowań i potrzeb wydaje się, że AI prędko nie zastąpi człowieka, zatem projektowanie ataków z użyciem socjotechniki wciąż pozostanie domeną ludzką. Ich wykonanie, czy też realizacja, może jednak zostać zautomatyzowana i polegać na zastosowaniu mechanizmów AI.

dr Karolina Małagocka

 

Będą masowe ataki

Łukasz Bromirski, inżynier rozwiązań cyberbezpieczeństwa w Cisco prognozuje, że wykorzystanie SI przez hakerów ma na razie ograniczony zakres, ale w przyszłości to się zdecydowanie zmieni.

W najbliższych latach kluczową rolę w systemach cyberbezpieczeństwa będą odgrywały technologie uczenia maszynowego i sztucznej inteligencji” – ocenia Łukasz Bromirski. - „Automatyzacja procesów pozwala efektywniej lokalizować zagrożenia i znacznie skraca czas reakcji w przypadku wystąpienia cyberataku.

Łukasz Boromirski

 

Nasz rozmówca przyznaje, że technologia ta jest stosunkowo nowa i nie zawsze doskonała. Organizacje muszą zacząć z niej korzystać, aby zapewnić odpowiedni poziom bezpieczeństwa.

„Mechanizmy uczenia maszynowego są wykorzystywane w rozwiązaniu Cisco Umbrella” – zaznacza Bromirski. - „Umożliwia ono sprawdzenie czy dana domena jest używana dzisiaj lub będzie używana w przyszłości do dystrybucji wirusów lub jako punkt kontaktowy dla złośliwego oprogramowania. Na tej samej zasadzie wykorzystujemy mechanizmy machine learning do wykrywania anomalii w ruchu sieciowym (Cisco StealthWatch) oraz głębokie sieci neuronowe do wykrywania złośliwego oprogramowania w ruchu zaszyfrowanym (Cisco StealthWatch w połączeniu z Cisco Threat Analytics, czyli Cisco ETA). Cisco Encrypted Traffic Analytics (ETA) jako pierwsze rozwiązanie na rynku wykorzystuje uczenie maszynowe do wykrywania złośliwego oprogramowania w ramach szyfrowanego ruchu sieciowego, bez potrzeby odszyfrowywania go. Dzięki sztucznej inteligencji Cisco lokalizuje 25 tys. cyberzagrożeń każdej sekundy” - słyszymy. 

Ekspert podkreśla, że na razie cyberprzestępcy wykorzystują uczenie maszynowe, głównie do tworzenia kolejnych mutacji złośliwego kodu. „Musimy być jednak przygotowani na zautomatyzowane ataki o dużej skali, które w sposób inteligentny reagują na odpowiedź specjalistów ds. cyberbezpieczeństwa. W przyszłości będą one coraz bardziej wyrafinowane” – zapowiada Bromirski.


Chcemy być także bliżej Państwa – czytelników. Dlatego, jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected]. Przyszłość przynosi zmiany. Wprowadzamy je pod hasłem #CyberIsFuture. 

image
Fot. Reklama

 

Reklama
Reklama

Komentarze (1)

  1. darenk

    Podejście, że SI wykorzystywana przez hakerów to "dopiero przyszłość", nazwałbym co najmniej ryzykownym i delikatnie mówiąc: ograniczonym.