Cyberbezpieczeństwo
Zatruwanie danych szkoleniowych to ryzyko dla bezpieczeństwa narodowego
Cyberprzestępcy - w tym ci działający na zlecenie rządów innych państw - mogą zatruwać zbiory danych szkoleniowych sztucznej inteligencji, co stwarza duże ryzyko dla bezpieczeństwa narodowego - oceniają eksperci jednego z australijskich think-tanków.
Cyberprzestępcy działający na zlecenie rządów wrogich państw, ale także ci, którzy w swoich operacjach motywowani są przede wszystkim zyskiem, mogą zatruwać zbiory danych szkoleniowych sztucznej inteligencji i w ten sposób stwarzać ryzyko dla bezpieczeństwa narodowego - wynika z raportu przygotowanego przez australijski think-tank Cyber Security Cooperative Research Centre (CSCRC). Zdaniem ekspertów, aby się przed tym uchronić, kluczowe jest podjęcie działań na poziomie administracji rządowej.
Jak może wyglądać atak?
CSCRC uważa, że w niedalekiej przyszłości bardzo realnym scenariuszem ataków jest wykorzystywanie zbiorów danych szkoleniowych dla sztucznej inteligencji przez sprawców działających np. na zlecenie wrogiego państwa.
W ramach takiego ataku, sprawcy mogą „zatruć” zbiór danych, wprowadzając do niego fałszywe informacje, w taki sposób, aby działanie systemu operującego na tych danych zostało kompletnie zaburzone i aby stał się on w ten sposób dysfunkcyjny. o szczególnie groźne w kontekście systemów wykorzystywanych np. w medycynie czy w sektorze finansowym - operując na złych danych, mogą one wpływać negatywnie na podejmowane przez człowieka decyzje, pełniąc rolę „doradczą” i wspierającą w procesie decyzyjnym. Jeśli systemy, które mogą stać się celem atakujących, nie podlegają żadnemu nadzorowi, ryzyko jest wręcz bardziej niż prawdopodobne.
Zatrute dane
Zatrucie danych szkoleniowych oznacza zatrucie całego systemu - ostrzega CSCRC w swoim raporcie. „Jakiekolwiek zagrożenie dla danych, na których operuje sztuczna inteligencja, stanowi jednocześnie zagrożenie dla integralności całego systemu i - co jeszcze bardziej martwiące - może być brzemienne w skutki społeczne” - podkreślają eksperci.
Ich zdaniem. cyberataki ukierunkowane na zbiory danych szkoleniowych i zasoby, w oparciu o które działa AI, powinny być zatem traktowane jako nowy, bardzo ważny wektor cyberzagrożeń. Dyrektorka CSCRC Rachael Falk w rozmowie z dziennikiem „Australian” powiedziała, że z jej perspektywy najgorszym scenariuszem jest możliwe wykorzystanie tego rodzaju działań w ramach realizacji operacji wpływu obcych państw na politykę wewnętrzną atakowanych krajów. Zatruwanie danych AI może w tym kontekście przełożyć się np. na promowanie określonych narracji i budzenie niepokojów społecznych.
Falk stwierdziła, że Australia powinna przyjąć regulacje zbliżone do europejskiego Aktu o sztucznej inteligencji, o którym wiele pisaliśmy na naszych łamach w tym tekście.
W poniedziałek rozporządzenie wykonawcze regulujące sztuczną inteligencję, w szczególności jej bezpieczeństwo, podpisał natomiast prezydent USA Joe Biden - o tym, co zmienią nowe przepisy, można przeczytać z kolei tutaj.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].