Polityka i prawo
Biden podpisał rozporządzenie regulujące sztuczną inteligencję. Co zawiera?
Prezydent Joe Biden podpisał Rozporządzenie wykonawcze o bezpiecznej i godnej zaufania sztucznej inteligencji. To pierwsza regulacja AI w USA, która pokazuje, jak poważnie traktowane jest ryzyko niesione przez szybki rozwój tej nowej technologii.
Prezydent USA Joe Biden podpisał Rozporządzenie wykonawcze o bezpiecznej i godnej zaufania sztucznej inteligencji, regulujące tę nową i szybko rozwijającą się technologię. Jak czytamy w oficjalnym komunikacie Białego Domu, rozporządzenie ma wyznaczać nowe standardy dla bezpieczeństwa AI, a także chronić prywatność Amerykanów, wspomagać dążenie na rzecz równości i ochrony praw obywatelskich, jak i być wsparciem w obronie konsumentów, pracowników, promocji innowacyjności i konkurencyjności, ostatecznie zaś wspierać Amerykę jako globalnego lidera.
Rozporządzenie wykonawcze ma być częścią szerszej strategii Białego Domu na rzecz odpowiedzialnej innowacji - przekazała prezydencka administracja. To właśnie dlatego jego reść związana jest z wcześniej już opisywanymi na naszych łamach dobrowolnymi deklaracjami firm, które dostarczają na rynek rozwiązania i produkty oparte o sztuczną inteligencję.
Co zawiera rozporządzenie wykonawcze o AI?
Przede wszystkim - według administracji Bidena - ma chronić przed nadużyciami z wykorzystaniem systemów opartych o sztuczną inteligencję. Podstawą dla egzekwowania przepisów zawartych w rozporządzeniu, jak i w przypadku europejskiego Aktu o sztucznej inteligencji, jest analiza ryzyka związanego z systemami. To właśnie dlatego rozporządzenie wykonawcze Bidena nakłada nowe obowiązki na ich dostawców:
- producenci najbardziej zaawansowanych systemów AI zobowiązani zostają do dzielenia się wynikami testów bezpieczeństwa i innymi krytycznie ważnymi danymi z rządem USA;
- producenci modeli, które mogą stwarzać zagrożenie dla bezpieczeństwa narodowego, gospodarczego lub dla zdrowia publicznego, muszą informować o ich szkoleniu rząd federalny, a potem dzielić się wszystkimi wynikami testów bezpieczeństwa.
NIST, czyli Narodowy Instytut Standardyzacji i Technologii, odpowiedzialny ma być za rozwój nowych standardów, narzędzi i testów, które posłużą do sprawdzania, czy powstające i eksploatowane w USA systemy sztucznej ineligencji są bezpieczne i godne zaufania.
Standardy rozwijane przez NIST mają być implementowane przez ministerstwo bezpieczeństwa wewnętrznego USA do testów w sektorach infrastruktury krytycznej. Powstanie także Rada Bezpieczeństwa AI a administracja federalna zajmie się oceną ryzyka stwarzanego przez AI względem infrastrury krytycznej, jak i ryzyka w dziedzinach takich, jak bezpieczeństwo chemiczne, biologiczne, radiologiczne, nuklearne i cyberbezpieczeństwo.
Różne aspekty bezpieczeństwa
Rozporządzenie wykonawcze regulujące sztuczną inteligencję bierze pod uwagę różne rodzaje ryzyka. Jednym z ciekawszych, które wyróżnia, jest możliwość wykorzystania AI do inżynierii niebezpiecznych materiałów biologicznych. Również w tym aspekcie przepisy mają tworzyć standardy i regulować np. rozporządzanie funduszami na poziomie federalnym, jakie mogłyby trafić do projektów stwarzających zagrożenie wykorzystania sztucznej inteligencji do wspomnianych wyżej celów.
Kolejnym aspektem bezpieczeństwa systemów AI w rozporządzeniu jest ochrona Amerykanów przed systemami wykorzystującymi sztuczną inteligencję do oszustwa, a także stworzenie kodeksu dobrych praktyk i standardów dla wykrywania treści generowanych przez algorytmy oraz ich odpowiedniego oznaczania. Narzędzia służące do tego celu mają być w dyspozycji agencji federalnych.
Ostatecznie, przepisy obejmują kwestie cyberbezpieczeństwa, które podobnie jak to miało miejsce w kontekście wcześniej wspomnianych aspektów, opiera się na analizie ryzyka, ale i ciągłym monitoringu zgodności ze standardami jak i pod kątem obecności podatności w systemach AI.
Sztuczna inteligencja a wywiad i wojsko
W przepisach znalazło się także miejsce dla kwestii wykorzystania AI przez wojsko i społeczność wywiadowczą. W odniesieniu do nich, powstać ma Memorandum Bezpieczeństwa Narodowego, które będzie obejmowało temat dalszego rozwoju AI i powstanie we współpracy Rady Bezpieczeństwa Narodowego i szefa administracji Białego Domu.
Jak czytamy w komunikacie urzędników Bidena, dokument ten ma być gwarancją tego, że społeczność wywiadowcza USA podobnie jak i wojsko będą korzystać ze sztucznej inteligencji w sposób etyczny, bezpieczny i efektywny, gdy mowa o zastosowaniach zgodnych z wypełnianą przez nie misją, będą też przeciwdziałać wykorzystaniu militarnemu AI przez adwersarzy.
Prywatność
Rozporządzenie wykonawcze Bidena uwzględnia ryzyko dla prywatności stwarzane przez rozwój sztucznej inteligencji. Administracja zdaje sobie sprawę, że może on stwarzać znacznie większe zagrożenie dla ochrony danych niż to ma miejsce w przypadku już istniejących usług cyfrowych, szczególnie gdy mowa o trenowaniu modeli AI w oparciu o prywatne dane obywateli.
Biden wezwał w tym kontekście Kongres do przyspieszenia prac nad federalnym prawem regulującym kwestie ochrony danych (do tej pory USA takiej regulacji nie mają), w szczególności w odniesieniu do dzieci.
Wzmocnieniu mają również zostać poddane już istniejące środki mogące pomagać Amerykanom unikać naruszeń prywatności, położony ma zostać także nacisk na rozwój technologii pozwalających na wdrażanie nowych usług cyfrowych w sposób szanujący prywatność. Ostatecznie, przeprowadzony ma być audyt tego, w jaki sposób wykorzystywane są przez agencje federalne komercyjnie dostępne na rynku informacje o Amerykanach - o tym, że skupuje je np. wojsko, można przeczytać na naszych łamach tutaj. Ma to zostać w przyszłości w USA uregulowane.
Nierówności społeczne i dyskryminacja
Podpisane przez Bidena rozporządzenie daje również wytyczne dla zastosowania systemów sztucznej inteligencji przez właścicieli nieruchomości na wynajem, agencji odpowiedzialnych za rozdzielanie pomocy społecznej oraz firm, które zajmują się rekrutacją pracowników. Sztuczna inteligencja ma być technologią zmniejszającą nierówności społeczne, nie zaś przyczyniającą się do dyskryminacji i ich wzrostu - wynika z przepisów.
Dyskryminacja przez algorytmy ma zostać wykluczona poprzez obowiązek audytowania systemów, wsparcie techniczne i inne działania koordynowane pomiędzy ministerstwem sprawiedliwości a lokalnymi urzędami odpowiedzialnymi za sprawy obywatelskie. Ma również zostać rozwinięty zestaw standardów dla wykorzystania AI w zastosowaniach takich jak sądownictwo czy inne działania z zakresu wymiaru sprawiedliwości - obecność algorytmów w tym kontekście nie może wpłynąć na uczciwość i przejrzystość jego działania.
Ostatecznie, nowe przepisy regulują kwestię zastosowania sztucznej inteligencji w kontekstach takich jak rynek pracy czy dostęp do edukacji - musi być ono uczciwe, niedyskryminujące i opierające się na transparentności podejmowanych decyzji.
Ameryka chce być liderem
Za działania na polu międzynarodowym zmierzające do regulacji AI i wyznaczania standardów dla wdrożeń tej technologii, odpowiedzialne mają być ministerstwo handlu oraz Departament Stanu.
USA chcą pozostać liderem, gdy mowa o rozwoju sztucznej inteligencji i dostrzegają możliwość obrony tej pozycji poprzez działania o charakterze dyplomatycznym i regulacyjnym. Rozporządzenie wykonawcze Bidena zapowiada współpracę na poziomie multilateralnym z innymi krajami, co nie dziwi w kontekście rosnącej roli Chin, które również regulują AI - o tym, jak zbudowane są prawa tworzące ramy dla tej branży w Państwie Środka, można przeczytać na naszych łamach w tej analizie.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na:[email protected].
Haertle: Każdego da się zhakować
Materiał sponsorowany