Cyberbezpieczeństwo

Wyzwania sztucznej inteligencji w cyberprzestrzeni

Fot. www.maxpixel.net/CC0

Uczestnicy spotkania zorganizowanego 26 stycznia przez Grupę Defence24 dyskutowali o zagadnieniach związanych z rozwojem potencjału sztucznej inteligencji nie tylko sił zbrojnych, ale całego państwa w zakresie zdolności do obrony i prowadzenia działań w cyberprzestrzeni.

W gronie ekspertów z Narodowego Centrum Bezpieczeństwa Cyberprzestrzeni, MON, Resortu Finansów, Eksperckiego Centrum Szkolenia Cyberbezpieczeństwa, Wojskowej Akademii Technicznej, Akademii Sztuki Wojennej i Akademii Leona Koźmińskiego, Grupa Defence24 przeprowadziła seminarium online poświęcone sztucznej inteligencji w kontekście cyberbezpieczeństwa. 

Poruszyliśmy także zagadnienia związane z przyszłością cyberkonfliktów, rolą i znaczeniem sztucznej inteligencji w konfliktach zbrojnych, etyką sztucznej inteligencji oraz jej narzędziami i praktykami.

Przedstawiciele RCIOlsztyn podczas zamkniętego seminarium online pt. „Sztuczna inteligencja a cyberbezpieczeństwo: technologie, narzędzia, wyzwania”.
Fot. Regionalne Centrum Informatyki Olsztyn/Twitter

Dr Jacek Raubo, analityk Defence24.pl i CyberDefence24.pl, który poprowadził seminarium pt. „Sztuczna inteligencja a cyberbezpieczeństwo: technologie, narzędzia wyzwania" zwrócił uwagę na wyzwania nie tylko natury technologicznej i narzędzi, ale i prawa, widzenia strategicznego, operacyjnego czy też kwestii moralnych, etycznych. 

„Nasze społeczeństwa również w sferze bezpieczeństwa mają pewne wartości moralne, etyczne, które będą musiały być skorelowane, jeśli chodzi o systemy prawa, podejścia do cyberbezpieczeństwa i sztucznej inteligencji. Przed tym nie da się uciec" – zaznaczył prowadzący.  

Zastanawiał się, czy czeka nas władza algorytmów i czy jesteśmy przygotowani do wypracowania sztucznej inteligencji w kontekście cyberbezpieczeństwa oraz jakie dylematy powinni mieć twórcy AI, jeśli chodzi o jej znaczenie w przestrzeni technicznej, etycznej, wojskowej i prywatnej. Jak zauważył dr Jacek Raubo, „dziś posiadanie rozwiązań bazujących na szeroko pojmowanej sztucznej inteligencji to jeden z elementów definiujących wyścig zbrojeń, a może po prostu rozwój państwa".

Czytaj też

Cyberobrona czy cyberatak

O tym, czy Polska może być dobrym przykładem systemowego rozumienia podejścia do cyberbezpieczeństwa, opierającego się również na sztucznej inteligencji, mówiła Aneta Trojanowska, Dyrektor Departamentu Cyberbezpieczeństwa w MON i Pełnomocnik MON ds. bezpieczeństwa cyberprzestrzeni.

„We współczesnym świecie cyberprzestrzeń jest jednym z najważniejszych obszarów funkcjonowania państwa. To obszar, który wymaga zastosowania także sztucznej inteligencji użytej do obrony. Należy zaznaczyć, że budowanie i wdrażanie nowych, nierzadko przełomowych technologii, należy do jednych z kluczowych zadań resortu obrony narodowej" – wskazała Aneta Trojanowska.  „Najlepszym przykładem takiego systemowego podejścia było wdrożenie w sektorze obrony narodowej programu Cyber.mil.pl opartego na czterech filarach, w tym na konsolidacji zasobów poprzez utworzenie Narodowego Centrum Bezpieczeństwa Cyberprzestrzeni i Wojsk Obrony Cyberprzestrzeni" – dodała. 

Fot. CYBER_MIL_PL (@CYBER_MIL_PL)/Twitter

Dyrektor podkreśliła, że ich główne zalety to - obok wspomnianej konsolidacji dotychczas rozproszonych w resorcie zasobów - także zatrudnienie i możliwość zatrzymania w resorcie najwyższej klasy ekspertów o unikalnej wiedzy i zdolnościach oraz zdolność do wytwarzania narodowych systemów teleinformatycznych, narzędzi i technologii pozwalających na autonomię i niezależność od powszechnie używanych rozwiązań, a tym samym większe bezpieczeństwo państwa. 

Program Cyber.mil.pl przyniósł także wiele innych korzyści dla resortu i bezpieczeństwa cyberprzestrzeni, umożliwiając szerszą kooperację ekspercką i instytucjonalną, także na arenie międzynarodowej. 

„Ogromne znaczenie miało także powstanie wyspecjalizowanych ośrodków kształcenia i szkolenia kadr jak np. Eksperckie Centrum Szkolenia Cyberbezpieczeństwa, czy program Cyber.mil z klasą, realizacja projektów naukowo-badawczych z sektorem publicznym i prywatnym" - dodała. 

Aneta Trojanowska odniosła się do kwestii zastosowania sztucznej inteligencji w działaniach realizowanych w cyberprzestrzeni. „Warto dodać, że jej istotność analizowana jest i brana pod uwagę nie tylko w resorcie obrony narodowej. Także Rada Ministrów przyjęła politykę rozwoju sztucznej inteligencji w wielu obszarach" – powiedziała ekspertka, wspominając o rozwiązaniach prawnych, techniczno-organizacyjnych i etycznych.

„Współczesne konflikty już dawno nie są już tymi, jakie znamy nawet z nie tak odległej przeszłości. Kluczowa różnica polega na tym, że mają one charakter hybrydowy i swój początek biorą z wielopoziomowych, skrytych działań, także dezinformacyjnych czy rozpoznawczych, realizowanych w szeroko rozumianej cyberprzestrzeni. Z tego powodu rozwój zdolności Sił Zbrojnych do realizacji działań w tej domenie operacyjnej stanowi priorytet i z punktu widzenia naszego państwa, jak i wypełniania zobowiązań sojuszniczych" – dodała dyrektor Trojanowska.

Czytaj też

Przyszłość cyberkonfliktów. Kto wygra wyścig zbrojeń?

Płk dr inż. Mariusz Chmielewski, zastępca dyrektora Narodowego Centrum Bezpieczeństwa Cyberprzestrzeni, odpowiedział na pytanie prowadzącego czy ten, kto szybciej i lepiej rozwinie sztuczną inteligencję wygra wyścig zbrojeń.

„To pytanie jest zadawane na poziomie strategii w wielu krajach. Niektóre kraje opierają swoją strategię bezpieczeństwa priorytetyzując technologie. Jestem podobnego zdania, natomiast nie należy zapominać, że wymiar strategiczny, wymaga połączenia trzech aspektów: technologicznego, ludzkiego i intelektualnego. Sztuczna inteligencja to przede wszystkim wymiar technologiczny i daje niesamowite możliwości wsparcia automatyzacji i autonomizacji wielu platform bojowych oraz systemów dostarczając zwielokrotnienia potencjału militarnego" – mówił.

Fot. CYBER_MIL_PL (@CYBER_MIL_PL)/Twitter

„Nie wyobrażam sobie, żeby kraje budujące świadomie swój potencjał militarny, nie uwzględniały w szerokiej skali wdrażanie narzędzi sztucznej inteligencji jako mechanizmów wspomagających procesy dowodzenia i kierowania walką, gdzie AI funkcjonuje z dużą precyzją i niezawodnością. Aktualnie prowadzone testy i badania pokazują, że jest nieocenionym i praktycznie jedynym mechanizmem zdolnym do tak efektywnego przetwarzania ogromnych strumieni danych. Przykładami takich zastosowań są systemy kontroli dostępu, perymetrii czy rozpoznania obrazowego. Analiza publikacji naukowych i prasy fachowej z zakresu technologii militarnych wyraźnie pokazuje te obszary jako atrakcyjne, szczególnie dla budowy przewagi informacyjnej i świadomości sytuacyjnej" – dodał.

Podkreślił też: „Nie jesteśmy w stanie uciec od budowania zdolności militarnych i tym samym wsparcia działań wojskowych bez uwzględnienia nowoczesnych narzędzi sztucznej inteligencji, a więc wielkoskalowego stosowania technologii cyfrowych i oprogramowania".

„Powszechnie uważa się, że ze względu na charakterystykę wymiaru walki, jakim jest cyberprzestrzeń nie zaobserwujemy jawnie wypowiedzianej wojny. Działania militarne na granicy konfliktu zbrojnego, czy działania w cyberprzestrzeni to najczęściej pojawiające się w przestrzeni medialnej scenariusze, na które przygotowują się armie wielu państw. Szczególnie w czasach napięć na arenie międzynarodowej, charakterystyki działań w cyberprzestrzeni (skrytość i łatwość maskowania ) stają się poszukiwanymi i preferowanymi zdolnościami, które nie rzadko wymagają wsparcia sztucznej inteligencji,  np. w zakresie identyfikacji węzłów do infekcji, czy dynamicznej konstrukcji malware'u" – dodał.

Płk Chmielewski wskazał, że współcześnie obserwujemy nie tyle wyścig zbrojeń, co wyścig rozwoju technologicznego. „Wiele krajów inwestuje ogrom środków w technologie, patrząc na podwójne ich zastosowania i aplikując tworzone rozwiązania na rynku cywilnym, który aktualnie najefektywniej zdobywa kapitał i wpływa na rozwój badań. Jednocześnie eksperci obserwują uzyskiwane wyniki i te najbardziej obiecujące i spektakularne adaptują w rozwiązaniach militarnych. Automatyzacja, autonomizacja wielu procesów pozwala więc znacząco zwielokrotniać efekt technologiczny również w wymiarze militarnym (ang. force multiplier – red.)" – zauważył.

YouTube cover video
Chmielewski: Budowa Wojsk Obrony Cyberprzestrzeni zostanie ukończona w terminie

Cyberbezpieczeństwo a obszar finansów

Swoje zdanie na temat finansów w kontekście cyberbezpieczeństwa wyraził Andrzej Telesz, Dyrektor Departamentu Bezpieczeństwa IT w Centrum Informatyki Resortu Finansów.

„Czwarta Rewolucja przemysłowa stała się faktem. Automatyzacja i robotyzacja procesów na rynku biznesowym jest już pewnym standardem, dlatego nie da się uciec od wykorzystania nowoczesnych rozwiązań bazujących na sztucznej inteligencji, również w tak ważnym obszarze, jak finanse publiczne. Zwłaszcza, że nasz budżet powiązany jest z budżetem unijnym. Dbając o stałe podwyższenie jakości obsługi naszych interesariuszy w resorcie finansów, większość czynności realizowana jest z wykorzystaniem narzędzi elektronicznych" - powiedział. 

Jak wskazał, wykorzystanie sztucznej inteligencji w resorcie finansów dotyczy również obszaru analizy, czy też kontroli. „Algorytmy sztucznej inteligencji mogą nie tylko oceniać stan rzeczywisty, ale też prognozować zjawiska w zmieniającym się otoczeniu. Algorytm się uczy, może analizować i ocenić obiektywnie, a w przyszłości wskazywać na ważne obszary z punktu widzenia interesu państwa. Chodzi o bezpieczeństwo finansów publicznych i bezpieczeństwo podatników" – podkreślił.

Jak sztuczna inteligencja może być wykorzystywana w szkoleniach?

Paweł Dziuba, Dyrektor Eksperckiego Centrum Szkolenia Cyberbezpieczeństwa, odpowiedział na pytanie Jacka Raubo, czy jego zdaniem sztuczna inteligencja jest „game changerem" w obszarze cyberbezpieczeństwa. 

„ W kontekście militarnym można założyć, że sztuczna inteligencja spowoduje, iż wojny przyszłości będą wojnami maszyn uzbrojonych w adoptowalne, specjalistyczne algorytmy, a same działania prowadzone będą w cyberprzestrzeni. W tej nadchodzącej rzeczywistości zarówno we wspomnianym aspekcie militarnym, jak i w innych dziedzinach życia, do których wkracza sztuczna inteligencja, daje się odczuć deficyt specjalistów, ekspertów na wszystkich poziomach - od strategicznego po taktyczny. Dlatego tak ważne jest budowanie kompetencji w tym obszarze, ale również wykorzystanie faktu, że także procesy szkoleniowe mogą być wspierane sztuczną inteligencją" - powiedział Paweł Dziuba. 

Płk rez. Paweł Dziuba, Dyrektor ECSC
Fot. ECSC

„Wykorzystanie sztucznej inteligencji pozwala na kreowanie programów kształcenia dostosowanych do indywidualnych cech szkolącego się, ale uwzględniające również zdolności i kompetencje wymagane na danym stanowisku pracy czy służby. Automat, sztuczna inteligencja adaptuje program do potrzeb pracodawcy z uwzględnieniem możliwości i indywidualnych cech szkolonego" – dodał.

„Jeśli odniesiemy wsparcie sztucznej inteligencji do procesów szkoleniowych w obszarze cyberbezpieczeństwa, to wspieranie specjalistów, w szczególności w kontekście laboratoryjnym oraz ćwiczeniowym przez AI, wpłynie na sprawniejsze, efektywniejsze i adaptacyjne budowanie kompetencji specjalistów, uwzględniające również aktualne trendy i potrzeby. Inteligentne środowisko edukacyjne oraz dostęp do takiego środowiska będzie dawało lepsze efekty szkoleniowe, a tym samym zapewni optymalne budowanie indywidualnych i zespołowych zdolności do realizacji zadań z obszaru cyberbezpieczeństwa. Zatem tak, edukacja oparta na AI to pośrednio >>krok milowy<< w zakresie budowania odporności państwa. To podnoszenie bezpieczeństwa w cyberprzestrzeni" - podsumował.

Czytaj też

Badania na technologiami sztucznej inteligencji

O głównych kierunkach badań nad obronnym wykorzystaniem technologii mówił płk dr inż. Rafał Kasprzyk, zastępca Dziekana Wydziału Cybernetyki Wojskowej Akademii Technicznej.

„Badania nad technologią sztucznej inteligencji, podobnie jak nad innymi technologiami przełomowymi, z punktu widzenia sił zbrojnych mają jeden zasadniczy cel – uzyskanie przewagi czy wręcz dominacji nad potencjalnym przeciwnikiem. Historia trwa i tylko kwestią czasu jest sprawa kolejnych konfliktów, może niewypowiedzianych, bo jak mówili moi przedmówcy, wojny nie będą formalnie wypowiadane, nie będziemy przechodzili ze stanu pokoju do stanu wojny w sposób jawnie deklarowany, lecz przez możliwie długi czas znajdować się możemy w stanie niepewności strategicznej. Być może w czasie wojny czy raczej konfrontacji w cyberprzestrzeni już jesteśmy" – zauważył, wspominając o wydarzeniach na Ukrainie.

„Gracze mający sprzeczne interesy dążą do uzyskania przewagi jeszcze przed >>zwarciem<<. Od końca drugiej wojny światowej do tej pory taką przewagę posiadają Stany Zjednoczone, które dominację osiągają właśnie dzięki nowoczesnym technologiom. I tak technologie >>pierwszej fali<< to m.in. broń jądrową, międzykontynentalne pociski balistyczne, satelity szpiegowskie. >>Druga fala<< to też dominacja Amerykanów, ponownie dzięki nowoczesnym technologiom, takim jak np. technologii stealth, technologii precyzyjnego uzbrojenia kierowanego. Obecnie mówi się o technologiach >>trzeciej fali<<, do których należą nowoczesne technologie komunikacji, rozwiązania pozwalające na gromadzenie i przetwarzanie bardzo dużo danych, obliczenia wielkiej skali oraz właśnie sztuczna inteligencja, z którą wiązane są z jednej strony olbrzymie nadzieje, a z drugiej pewne zagrożenia" – wymieniał płk. Kasprzyk.

YouTube cover video
Czy "etyczna" sztuczna inteligencja jest możliwa? Odpowiada płk dr inż. Rafał Kasprzyk.

„Prace nad technologiami >>trzeciej fali<< sprowadzają się do wyścigu zbrojeń, bo te technologie mają podwójne zastosowanie" – podkreślił. Jego zdaniem technologie ostatnich lat mają specyficzne cechy: nie są już tylko narzędziem do wspomagania procesów informacyjno-decyzyjnych, wytworzyły bowiem nową przestrzeń, tzw. cyberprzestrzeń, do której przeniosło się nasze życie, prowadząc do zjawiska określanego mianem awataryzacji. 

Technologie komputerowe rozwijają się wykładniczo, a nie liniowo, co powoduje nagłe zmiany jakościowe, których człowiek nie jest zwykle w stanie przewidzieć, będąc przez ewolucje przystosowany do zmian liniowych, rozciągniętych w czasie. W końcu wykładniczy rozwój technologii, zgodny z prawem Moore'a, doprowadził do pojawiania się systemów o niezwykłej złożoności, a wówczas prawo Murphy'ego („jeśli coś może pójść źle, to pójdzie") rzeczywiście sprawdza się, bo nie może być inaczej ze statystycznego punktu widzenia, stąd np. wciąż pobieramy aktualizacje oprogramowania, a to oznacza, że to, co jest aktualizowane było wadliwe, że było podatne. 

„Cyberprzestrzeń stała się miejscem nie tylko komunikacji i kooperacji, ale także konfrontacji różnych graczy na poziomie technologicznym i informacyjnym, a pewną nadzieję na zapanowanie nad złożonością zjawisk w cyberprzestrzeni daje rozwój sztucznej inteligencji, w tym narzędzi wykorzystujących algorytmy uczenia maszynowego" – dodał płk dr inż. Rafał Kasprzyk.

Czytaj też

Sztuczna inteligencja w systemach łączności

Płk dr hab. inż. Zbigniew Piotrowski, Profesor Wojskowej Akademii Technicznej, opowiedział jak sztuczna inteligencja wpływa na system łączności. „Przepis na sukces, czyli na uzyskanie przewagi operacyjnej w systemach łączności, to po pierwsze posiadanie sprawnego, zaawansowanego algorytmu sztucznej inteligencji, po drugie posiadanie wydajnej i sprawnej platformy obliczeniowej i po trzecie bardzo dużego zbioru danych. Te trzy komponenty wymagają opanowania odpowiednich technologii tak, aby uzyskać wspomnianą przewagę. Platformy obliczeniowe na technologii krzemowej nie są już wystarczające. „Prymat w dominacji nad uzyskaniem przewagi będą miały tylko te kraje, które posiadają technikę kwantową oraz uaktualnianą w czasie rzeczywistym dobrze skomponowaną rozległą bazę wiedzy tzw. data set" – podkreślił.

Płk dr hab. inż. Zbigniew Piotrowski, prof. WAT WEL
Fot. CyberDefence24.pl

„Generowanie realnych scenariuszy, na przykład, jeśli chodzi o obronę i atak w systemach łączności polega na wykorzystaniu jak najsprawniejszej platformy obliczeniowej i urealnionego zbioru danych. Sukces oznacza osiągnięcie chwilowej lub dominującej długoterminowej przewagi nad przeciwnikiem przez skuteczne zagłuszenie jego środków łączności radiowej oraz zapewnienie ciągłości pracy środków radiowych własnych" - wyjaśniał.

Skala cyberataków i nowoczesne rozwiązania

Oleg Orlov, dyrektor regionalny w Black Berry opowiedział o skali cyberataków i roli poszczególnych firm w tym zakresie z perspektywy dynamicznej zmiany w cyberprzestrzeni. 

„Nie muszę przekonywać, że sztuczna inteligencja odgrywa kluczową rolę. Pamiętajmy, że ponad 300 tysięcy programów wirusowych jest tworzonych każdego dnia. 25 proc. globalnych centrów operacyjnych otrzymuje codziennie 1 milion alertów. Świadczy to o skali ataków mających miejsce w cyberprzestrzeni" - wskazał.

Oleg Orlov, dyrektor regionalny w Black Berry.
Fot. CyberDefence24.pl

„Brakuje specjalistów w tej dziedzinie, wszędzie narasta cyberterroryzm. Problem dotyczy nie tylko Ukrainy. Kraje, które przeprowadzają cyberataki wykorzystują sztuczną inteligencję" - podkreślił Orłow. „Wykorzystanie zasobów ludzkich jest niewystarczające. Potrzebujemy, aby ponad 90 proc. ochrony przed złośliwym oprogramowaniem było wykonywane przez sztuczną inteligencję. W 2012 roku były dyrektor ds. technologii McFee założył firmę Cylance, której głównym celem było wykorzystanie sztucznej inteligencji do zapobiegania nowemu, nigdy wcześniej niewidzianemu złośliwemu oprogramowaniu. Cylance jest dziś częścią BlackBerry i ma sprawdzoną technologię AI EPP i EDR, która zapobiega atakom typu zero-day z 99- proc. skutecznością" – mówił.

Francois Baraer z BlackBerry zademonstrował podczas wideokonferencji, w jaki sposób Cylance Protect AI w wersji 2016 (sprzed 5 lat) całkowicie wyłączył nowe złośliwe oprogramowanie na żywo wykorzystywane przez hakerów na Ukrainie w 2022 roku. 

Prawne i etyczne wyzwania AI

O etycznej i prawnej stronie cyberinteligencji mówiła reprezentująca Akademię Leona Koźmińskiego dr hab. Aleksandra Przegalińska. Stwierdziła, że dziś metody sztucznej inteligencji, na przykład uczenia maszynowego, dają nam szansę na to, by skutecznie pracować w wielu sektorach, w tym w wojskowości, choć ona kieruje się swoimi prawami.

„Jest też kontekst prawny zagadnienia. Zaczynamy ustawiać standardy: 25 stycznia Parlament Europejski pochylał się nad najnowszą propozycją regulacji w zakresie godnej zaufania sztucznej inteligencji - AI Act. Jest tam przedstawione europejskie podejście do sztucznej inteligencji jako technologii, która ma być tworzona tak, aby była godna zaufania" – wyjaśniała ekspertka. 

YouTube cover video
Aleksandra Przegalińska: Nie powinniśmy pracować nad automatyczną bronią

„Wydaje się, że ta regulacja dotyczy głównie przestrzeni komercyjnej, w tym różnych silników wykorzystywanych w rekomendacjach zakupowych czy do identyfikacji ludzi w przestrzeni publicznej. Część z nich ma być określona jako zastosowania wysokiego ryzyka, które nie będą zakazane, ale będą podlegały silnej standaryzacji i kontroli, a część, jak identyfikacja ludzi za pomocą uczenia maszynowego, ma być zakazana" – powiedziała. 

Jej zdaniem jesteśmy u progu nowego rozdania, jeśli chodzi o sztuczną inteligencję, przynajmniej w Europie. „USA przygląda się tym rozwiązaniom, część krajów patrzy na to sceptycznie, że nie torujemy sobie drogi do nowych rozwiązań, tylko je regulujemy. Pozostali mówią, że może takie standardy są w tej chwili niezbędne, aby się bezpiecznie rozwijać i są przestrzenią do innowacji i generatorem ciekawych pomysłów" – mówiła prelegentka. 

Czytaj też

Człowiek kontra machine learning

Jak wskazała dr hab. Katarzyna Chałubińska-Jentkiewicz, prof. Akademii Sztuki Wojennej, Dyrektor Akademickiego Centrum Polityki Cyberbezpieczeństwa Akademii Sztuki Wojennej, podczas dyskusji mowa jest bardziej o systemach machine learningu, jak algorytmy, które przetwarzają dane, niż o rzeczywistej AI. 

„Widzimy pewną zdolność komputerów, jeśli chodzi o sztuczną inteligencję do analizowania i rozwiązywania problemów także z obszaru etyki. To stwarza interesujące zagadnienia dotyczące odpowiedzi na pytania co jest moralne, a co nie jest, co jest dozwolone, a powinno być zakazane" – stwierdziła. 

YouTube cover video
Dr hab. Katarzyna Chałubińska-Jentkiewicz: Działania dezinformacyjne odnoszą się do pytań o wartości

Etyka i prawo, rozwój nowych technologii to są dzisiaj tematy, które muszą być spójne – podkreśliła. „Regulacje są potrzebne. Analityka rozwoju cyberprzestrzeni i sztucznej inteligencji, robotyki znacznie przekracza możliwości prawodawców. Prawo nie nadąża, ale tak ma być" - podkreśliła prof. Katarzyna Chałubińska-Jentkiewicz.

Czytaj też

Chcemy być także bliżej Państwa – czytelników. Dlatego, jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected] Przyszłość przynosi zmiany. Wprowadzamy je pod hasłem #CyberIsFuture.

Komentarze

    Czytaj także