CYBERMAGAZYN
#CyberMagazyn: Jak zarządzać ryzykiem dla cyberbezpieczeństwa sztucznej inteligencji?
Sztuczna inteligencja to dziedzina, o której można rozmawiać na wielu poziomach. Niezwykle istotnym aspektem pozostaje jednak jej cyberbezpieczeństwo, które będzie warunkowało praktyczność licznych wdrożeń i faktyczny kształt krajobrazu zagrożeń, z którymi będziemy mieli w związku z nią do czynienia.
Sztuczna inteligencja to hasło, które odmieniamy przez wszystkie przypadki. Możemy rozmawiać o niej na wielu poziomach - od zdawałoby się całkowicie błahego, jak rozrywka z użyciem narzędzi pozwalających na generowanie obrazów czy tekstu, po ten całkowicie poważny - dotyczący np. wykorzystania sztucznej inteligencji na polu bitwy.
Regulatorzy na całym świecie zdają sobie sprawę, że nowe technologie sztucznej inteligencji wymagają uregulowania. Jednym z podejść do tego zagadnienia jest Akt o sztucznej inteligencji (AI Act) przyjęty przez Parlament Europejski, który wejdzie w życie w ciągu kolejnych kilku lat. To pierwsza tak kompleksowa regulacja AI na Zachodzie ( wcześniej ramy prawne dla sztucznej inteligencji stworzyły Chiny, o czym pisałam na łamach CyberDefence24.pl tutaj ).
Cyberbezpieczeństwo AI w Unii
Akt o sztucznej inteligencji to regulacja, która zbudowana jest na koncepcji systemów AI - oraz analizie ryzyka. Można o tym przeczytać więcej na naszych łamach w tym materiale . Systemy - o czym warto pamiętać - można pod kątem cyberbezpieczeństwa rozpatrywać całościowo, ale trzeba także wspomnieć o ich poszczególnych komponentach.
To, co cechuje AI Act, to zastosowanie wymogów cyberbezpieczeństwa do systemów jako całości - bez uwzględnienia komponentów. Trzeba zatem podejść do nich oddzielnie - Akt o sztucznej inteligencji zakłada, że podmioty odpowiedzialne za budowę tych systemów, będą dokonywać oceny ryzyka na poziomie ich powstawania, podobnie jak i będą mitygować je odpowiednio do potrzeb jeszcze na poziomie projektu, jak i później - w implementacji.
Podejście to zakłada również komplementarność unijnych regulacji, które "rozmawiają ze sobą" i uzupełniają się.
Komisja Europejska dostrzega, że krajobraz systemów sztucznej inteligencji obecnie zmienia się bardzo szybko, a praktycznie w każdym tygodniu pojawiają się nowe zastosowania AI, jak i nowe technologie związane z tą dziedziną. W przypadku wielu systemów możliwe jest użycie "klasycznego" podejścia do cyberbezpieczeństwa, które znamy z innych produktów cyfrowych (np. złożonych systemów oprogramowania), jednak w innych - konieczna będzie zmiana paradygmatu i bardziej otwarte podejście do praktyki.
Narzędzia do zarządzania ryzykiem cyberbezpieczeństwa AI już powstają - podobnie jak ramy regulacyjne, które mają pomóc w zdefiniowaniu niezbędnych elementów tego procesu.
Systemy wysokiego ryzyka
Jednym ze słabszych punktów wymogów cyberbezpieczeństwa w Akcie o sztucznej inteligencji są systemy wysokiego ryzyka - czyli te, wobec których paradoksalnie ustawa stawia najwyższe wymagania i obostrzenia, a także nakłada najwięcej obowiązków na ich dostawców.
W wytycznych Komisji Europejskiej dotyczących cyberbezpieczeństwa systemów AI opublikowanych w ub. tygodniu czytamy, że najważniejszym "drogowskazem" dla myślenia o cyberbezpieczeństwie systemów wysokiego ryzyka powinien być Art. 15 Aktu o sztucznej inteligencji.
Czytamy w nim, że systemy wysokiego ryzyka powinny być projektowane i rozwijane w sposób, który pozwoli im na osiąganie odpowiedniego poziomu dokładności, wytrzymałości i cyberbezpieczeństwa, a także działać z ich uwzględnieniem przez cały cykl życia.
Punkt 4 artykułu 15 mówi o odporności systemów wysokiego ryzyka na próby zmiany ich funkcjonowania lub wykorzystania przez nieautoryzowane podmioty za pośrednictwem istniejących w systemach podatności. Odporność ta ma być osiągana przez zagwarantowanie wysokiego poziomu cyberbezpieczeństwa, odpowiednie środki techniczne, które będą proporcjonalne do ryzyka. Tam, gdzie to stosowne, środki techniczne powinny obejmować narzędzia służące zapobieganiu i kontroli cyberataków, które ukierunkowane są przede wszystkim na manipulowanie zbiorami danych, na których operują systemy, celem sprowokowania ich do błędnego działania.
Cyberbezpieczeństwo = zgodność z AI Act
Zgodność z regulacjami Aktu o sztucznej inteligencji można osiągnąć tylko wtedy, jeśli systemom wysokiego ryzyka będą towarzyszyły odpowiednie audyty bezpieczeństwa i spełnienie wymogów stawianych przed nimi w tej kwestii.
Audyt powinien być każdorazowo przeprowadzany z myślą o architekturze danego systemu i nie może być "checklistą" do odhaczenia, jak to niestety ma miejsce w przypadku wielu dokumentów mających zapewniać "zgodność z RODO". System zarządzania ryzykiem opisuje Artykuł 9 AI Act, a koncentruje się on na konieczności każdorazowego określenia konkretnych rodzajów ryzyka i zastosowaniu wysokopoziomowych wymogów cyberbezpieczeństwa Aktu do każdego z komponentów systemu - jak i wdrożeniu odpowiednich metod i sposobów mitygacji.
Właściwe zapewnienie cyberbezpieczeństwa systemów AI powinno opierać się na zintegrowanym i ciągłym procesie - nie może być jednorazowym "aktem osiągnięcia zgodności" z regulacją, po którym później nie będzie już żadnych działań i zainteresowania ze strony dostawcy systemu. Komisja Europejska w swoich zaleceniach zwraca uwagę, że w procesie tym powinny być brane pod uwagę zarówno narzędzia i sposoby postępowania znane z działań na rzecz cyberbezpieczeństwa w dotychczas znanych systemach cyfrowych, jak i te opracowane z myślą o sztucznej inteligencji i rozwijających się szybko nowych technologiach.
Dodatkowo, bardzo ważnym elementem pozostaje wdrożenie metodologii bezpieczeństwa na etapie projektu, o którym w kontekście innego rodzaju zagadnień, lecz w sposób możliwy do odniesienia dla AI, pisałam na CyberDefence24.pl tutaj .
Ograniczenia
Obecnie największym problemem dla cyberbezpieczeństwa sztucznej inteligencji jest niejednolitość jej wdrożeń pod względem technologicznej dojrzałości.
Istotny jest także brak wypracowanych ram dla standardów, które mogą zmieniać się jeszcze pod wpływem regulacji sektorowych, a także analizy zastosowań technologii w jej różnych wdrożeniach. Cyberbezpieczeństwa AI nie należy opierać na analizie natury obecnie dostępnych modeli - choć są one dobrymi przykładami, modele nie stanowią jedynych przypadków użycia tej technologii i same w sobie są bardzo ograniczone.
To, co będzie wyznaczało dobry poziom dbałości o cyberbezpieczeństwo w sztucznej inteligencji, to elastyczność, holistyczne podejście i otwartość na ewolucję - AI Act jest na to przygotowany.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].
Haertle: Każdego da się zhakować
Materiał sponsorowany