Reklama

Cyberbezpieczeństwo

USA i Wielka Brytania wspólnie opracowały wytyczne dla cyberbezpieczeństwa AI

Wlk. Brytania i USA. Wspólne wytyczne dla bezpiecznych systemów AI

Wielka Brytania i USA tworzą wspólne wytyczne dla bezpieczeństwa rozwoju systemów AI. Opublikowały je razem instytucje odpowiedzialne za cyberbezpieczeństwo w obu krajach.

Reklama

Wspólne reguły dla bezpieczeństwa rozwoju systemów sztucznej inteligencji opublikowały instytucje odpowiedzialne za cyberbezpieczeństwo w Wielkiej Brytanii i Stanach Zjednoczonych. Są to odpowiednio: Narodowe Centrum Cyberbezpieczeństwa (NCSC), ministerstwo bezpieczeństwa wewnętrznego (DHS) oraz agencja cyberbezpieczeństwa i bezpieczeństwa infrastruktury (CISA).

Reklama

Czytaj też

Reklama

Bezpieczeństwo od projektu

Wspólne wytyczne mają pomóc twórcom systemów sztucznej inteligencji zadbać o ich bezpieczeństwo już na etapie projektowania i tworzenia. Jak czytamy na stronie agencji CISA, zostały one sformułowane we współpracy z 21 innymi podmiotami i ministerstwami z całego świata, w tym z przedstawicielami wszystkich państw grupy G7.

Zdaniem sekretarza ds. bezpieczeństwa narodowego USA Alejandra N. Mayorkasa, sztuczna inteligencja może być technologią o znaczeniu transformatywnym dla dalszych losów ludzkości.

„Wskazówki opublikowane dziś wspólnie przez CISA, NCSC i naszych innych międzynarodowych partnerów, dostarczają zdroworozsądkowej ścieżki projektowania, rozwijania i wdrażania oraz operacji na sztucznej inteligencji, uwzględniającej, że cyberbezpieczeństwo powinno być jej podstawą” - powiedział Mayorkas, cytowany w oficjalnym komunikacie CISA.

Dowiadujemy się z niego, że kluczem w wytycznych ma być metodologia „bezpieczeństwa na etapie projektu” (security by design), a samo stworzenie dokumentu jest zdaniem jego inicjatorów historycznym krokiem na przód, w który powinni zainwestować twórcy systemów AI, aby chronić swoich klientów na każdym etapie styczności z produktem.

Czytaj też

Krok milowy

Wspólne wytyczne mają stanowić krok milowy dla zapewnienia przejrzystości, odpowiedzialności i wypracowania dobrych praktyk w ramach międzynarodowej społeczności podmiotów odpowiedzialnych za rozwój AI. Rewolucja niesiona przez rozwój tej nowej technologii może być bezpieczna tylko, jeśli zostanie oparta na tego rodzaju wartościach - twierdzą inicjatorzy wytycznych. Jak wskazują, adopcja reguł wypracowanych w dokumencie może też przełożyć się na ochronę infrastruktury krytycznej i zwiększenie wagi partnerstwa międzynarodowego na rzecz bezpiecznej cyfrowej przyszłości.

Wytyczne podzielono na cztery obszary w ramach cyklu rozwoju systemów AI; to bezpieczny projekt, bezpieczny rozwój, bezpieczne wdrożenie, a także bezpieczne eksploatacja i utrzymanie. Każda z sekcji zawiera zarówno zasady do wdrożenia, jak i wskazówki dotyczące radzenia sobie z zagrożeniami, które mają przekładać się na zwiększenie bezpieczeństwa całego systemu i organizacji z nim związanej.

Czytaj też

Nie tylko rozporządzenie

Stworzenie przez USA i Wielką Brytanię we współpracy z partnerami wytycznych dla cyberbezpiecznej AI to kolejny krok na drodze do uregulowania prawnego sztucznej inteligencji. Obecnie jedyną po stronie zachodniej próbą wzięcia nowej technologii w karby jest rozporządzenie wykonawcze prezydenta USA Joe Bidena z 30 października 2023 r. (AI Act jeszcze nie obowiązuje i nie wiadomo, czy do końca grudnia zostanie wypracowane porozumienie pozwalające dalej procedować tę regulację).

Wytyczne to jednak nadal bardzo „miękka” regulacja - nie stanowi zobowiązujących przepisów, za które jakiekolwiek podmioty mogłyby być rozliczane.

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na:[email protected].

Reklama

Komentarze

    Reklama