Wielka Brytania i USA tworzą wspólne wytyczne dla bezpieczeństwa rozwoju systemów AI. Opublikowały je razem instytucje odpowiedzialne za cyberbezpieczeństwo w obu krajach.
Wspólne reguły dla bezpieczeństwa rozwoju systemów sztucznej inteligencji opublikowały instytucje odpowiedzialne za cyberbezpieczeństwo w Wielkiej Brytanii i Stanach Zjednoczonych. Są to odpowiednio: Narodowe Centrum Cyberbezpieczeństwa (NCSC), ministerstwo bezpieczeństwa wewnętrznego (DHS) oraz agencja cyberbezpieczeństwa i bezpieczeństwa infrastruktury (CISA).
Czytaj też
Bezpieczeństwo od projektu
Wspólne wytyczne mają pomóc twórcom systemów sztucznej inteligencji zadbać o ich bezpieczeństwo już na etapie projektowania i tworzenia. Jak czytamy na stronie agencji CISA, zostały one sformułowane we współpracy z 21 innymi podmiotami i ministerstwami z całego świata, w tym z przedstawicielami wszystkich państw grupy G7.
Zdaniem sekretarza ds. bezpieczeństwa narodowego USA Alejandra N. Mayorkasa, sztuczna inteligencja może być technologią o znaczeniu transformatywnym dla dalszych losów ludzkości.
„Wskazówki opublikowane dziś wspólnie przez CISA, NCSC i naszych innych międzynarodowych partnerów, dostarczają zdroworozsądkowej ścieżki projektowania, rozwijania i wdrażania oraz operacji na sztucznej inteligencji, uwzględniającej, że cyberbezpieczeństwo powinno być jej podstawą” - powiedział Mayorkas, cytowany w oficjalnym komunikacie CISA.
Dowiadujemy się z niego, że kluczem w wytycznych ma być metodologia „bezpieczeństwa na etapie projektu” (security by design), a samo stworzenie dokumentu jest zdaniem jego inicjatorów historycznym krokiem na przód, w który powinni zainwestować twórcy systemów AI, aby chronić swoich klientów na każdym etapie styczności z produktem.
Czytaj też
Krok milowy
Wspólne wytyczne mają stanowić krok milowy dla zapewnienia przejrzystości, odpowiedzialności i wypracowania dobrych praktyk w ramach międzynarodowej społeczności podmiotów odpowiedzialnych za rozwój AI. Rewolucja niesiona przez rozwój tej nowej technologii może być bezpieczna tylko, jeśli zostanie oparta na tego rodzaju wartościach - twierdzą inicjatorzy wytycznych. Jak wskazują, adopcja reguł wypracowanych w dokumencie może też przełożyć się na ochronę infrastruktury krytycznej i zwiększenie wagi partnerstwa międzynarodowego na rzecz bezpiecznej cyfrowej przyszłości.
Wytyczne podzielono na cztery obszary w ramach cyklu rozwoju systemów AI; to bezpieczny projekt, bezpieczny rozwój, bezpieczne wdrożenie, a także bezpieczne eksploatacja i utrzymanie. Każda z sekcji zawiera zarówno zasady do wdrożenia, jak i wskazówki dotyczące radzenia sobie z zagrożeniami, które mają przekładać się na zwiększenie bezpieczeństwa całego systemu i organizacji z nim związanej.
Czytaj też
Nie tylko rozporządzenie
Stworzenie przez USA i Wielką Brytanię we współpracy z partnerami wytycznych dla cyberbezpiecznej AI to kolejny krok na drodze do uregulowania prawnego sztucznej inteligencji. Obecnie jedyną po stronie zachodniej próbą wzięcia nowej technologii w karby jest rozporządzenie wykonawcze prezydenta USA Joe Bidena z 30 października 2023 r. (AI Act jeszcze nie obowiązuje i nie wiadomo, czy do końca grudnia zostanie wypracowane porozumienie pozwalające dalej procedować tę regulację).
Wytyczne to jednak nadal bardzo „miękka” regulacja - nie stanowi zobowiązujących przepisów, za które jakiekolwiek podmioty mogłyby być rozliczane.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na:[email protected].