Reklama

Cyberbezpieczeństwo

Zatruwanie danych szkoleniowych to ryzyko dla bezpieczeństwa narodowego

Zatruwanie danych, na których operuje AI, to duże ryzyko dla bezpieczeństwa
Zatruwanie danych, na których operuje AI, to duże ryzyko dla bezpieczeństwa
Autor. Steve Johnson / Unsplash

Cyberprzestępcy - w tym ci działający na zlecenie rządów innych państw - mogą zatruwać zbiory danych szkoleniowych sztucznej inteligencji, co stwarza duże ryzyko dla bezpieczeństwa narodowego - oceniają eksperci jednego z australijskich think-tanków.

Reklama

Cyberprzestępcy działający na zlecenie rządów wrogich państw, ale także ci, którzy w swoich operacjach motywowani są przede wszystkim zyskiem, mogą zatruwać zbiory danych szkoleniowych sztucznej inteligencji i w ten sposób stwarzać ryzyko dla bezpieczeństwa narodowego - wynika z raportu przygotowanego przez australijski think-tank Cyber Security Cooperative Research Centre (CSCRC). Zdaniem ekspertów, aby się przed tym uchronić, kluczowe jest podjęcie działań na poziomie administracji rządowej.

Reklama

Jak może wyglądać atak?

Reklama

CSCRC uważa, że w niedalekiej przyszłości bardzo realnym scenariuszem ataków jest wykorzystywanie zbiorów danych szkoleniowych dla sztucznej inteligencji przez sprawców działających np. na zlecenie wrogiego państwa.

W ramach takiego ataku, sprawcy mogą „zatruć” zbiór danych, wprowadzając do niego fałszywe informacje, w taki sposób, aby działanie systemu operującego na tych danych zostało kompletnie zaburzone i aby stał się on w ten sposób dysfunkcyjny. o szczególnie groźne w kontekście systemów wykorzystywanych np. w medycynie czy w sektorze finansowym - operując na złych danych, mogą one wpływać negatywnie na podejmowane przez człowieka decyzje, pełniąc rolę „doradczą” i wspierającą w procesie decyzyjnym. Jeśli systemy, które mogą stać się celem atakujących, nie podlegają żadnemu nadzorowi, ryzyko jest wręcz bardziej niż prawdopodobne.

Zatrute dane

Zatrucie danych szkoleniowych oznacza zatrucie całego systemu - ostrzega CSCRC w swoim raporcie. „Jakiekolwiek zagrożenie dla danych, na których operuje sztuczna inteligencja, stanowi jednocześnie zagrożenie dla integralności całego systemu i - co jeszcze bardziej martwiące - może być brzemienne w skutki społeczne” - podkreślają eksperci.

Ich zdaniem. cyberataki ukierunkowane na zbiory danych szkoleniowych i zasoby, w oparciu o które działa AI, powinny być zatem traktowane jako nowy, bardzo ważny wektor cyberzagrożeń. Dyrektorka CSCRC Rachael Falk w rozmowie z dziennikiem „Australian” powiedziała, że z jej perspektywy najgorszym scenariuszem jest możliwe wykorzystanie tego rodzaju działań w ramach realizacji operacji wpływu obcych państw na politykę wewnętrzną atakowanych krajów. Zatruwanie danych AI może w tym kontekście przełożyć się np. na promowanie określonych narracji i budzenie niepokojów społecznych.

Falk stwierdziła, że Australia powinna przyjąć regulacje zbliżone do europejskiego Aktu o sztucznej inteligencji, o którym wiele pisaliśmy na naszych łamach w tym tekście.

W poniedziałek rozporządzenie wykonawcze regulujące sztuczną inteligencję, w szczególności jej bezpieczeństwo, podpisał natomiast prezydent USA Joe Biden - o tym, co zmienią nowe przepisy, można przeczytać z kolei tutaj.

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama
Reklama

Komentarze