Technologie
Chiny. Powstanie czarna lista danych szkoleniowych dla sztucznej inteligencji
Chiny chcą stworzyć czarną listę danych szkoleniowych dla sztucznej inteligencji w modelach generatywnych. To część wymogów bezpieczeństwa AI w ChRL, którego istotnym elementem jest dbałość o to, aby technologia ta nie zagrażała polityce państwa.
Chiny opublikowały zestaw wytycznych dla bezpieczeństwa produktów, zawierających sztuczną inteligencję. Mają z niego korzystać firmy oferujące usługi, w których występują modele generatywne, takie jak chiński Ernie, czy zachodni ChatGPT. Jednym z elementów wytycznych jest tzw. czarna lista danych szkoleniowych dla sztucznej inteligencji, zawierająca szereg źródeł, na podstawie których algorytmy nie powinny - a wręcz nie mogą - się uczyć.
Co znajdziemy w wytycznych?
Wytyczne, które opublikowała w tym tygodniu Narodowa Komisja Standardyzacji Informacji, w skład której weszli urzędnicy z Chińskiej Administracji Cyberprzestrzeni (CAC), Ministerstwa Przemysłu i Technologii informacyjnych oraz policji.
Komisja proponuje, aby każdy zbiór danych wykorzystywany do szkolenia modeli sztucznej inteligencji był poddawany ocenie bezpieczeństwa. Te, w których przypadku stwierdzi się, iż zawierają ponad 5 proc. szkodliwych i nielegalnych informacji, powinny zostać wpisane na czarną listę i nie być wykorzystywane. Jakie to informacje? Według Chińczyków: pochwała terroryzmu lub przemocy, a także treści wywrotowe względem obowiązującego w ChRL ustroju socjalistycznego, jak i materiały uderzające w dobre imię kraju i podważające narodową jedność oraz stabilność społeczną.
W treści regulacji podkreślono również, że do szkolenia modeli nie mogą być wykorzystywane treści, które są cenzurowane w chińskim internecie. Bardzo ważnym elementem jest narzucenie obowiązku pozyskiwania zgody do szkolenia algorytmów na danych osobowych - podmioty, których te dane dotyczą, muszą się na to świadomie zgodzić. W szczególności podkreślono, iż ważne to jest w odniesieniu do danych biometrycznych.
Reaktywne regulacje
Agencja Reutera zwraca uwagę, że regulacje ukazały się nieco ponad miesiąc po tym, jak CAC pozwoliła kilku chińskim firmom wypuścić na rynek produkty zawierające modele generatywnej sztucznej inteligencji. Wśród nich znalazł się gigant wyszukiwania w internecie, zwany chińskim Google«em, koncern Baidu.
CAC jeszcze w kwietniu tego roku podkreślała, że firmy, które chcą wypuszczać na rynek modele generatywnej sztucznej inteligencji, powinny dokonywać państwowych audytów bezpieczeństwa swoich produktów przed udostępnieniem usług użytkownikom.
Na CyberDefence24.pl pisaliśmy już wiele o tym, jak powstają chińskie regulacje sztucznej inteligencji, z uwagą śledzimy także, co jest w ChRL uregulowane i jak, jeśli chodzi o tę branżę - bo to pierwsza jurysdykcja, która do kwestii budowy ram prawnych dla AI odniosła się praktycznie. Na Zachodzie wciąż czekamy na to, aż sfinalizowany zostanie Akt o sztucznej inteligencji w UE oraz na wyniki dyskusji w USA, które ostatecznie zrozumiały, że jeśli chodzi o sztuczną inteligencję, nie obędzie się bez regulacji na poziomie federalnym.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].
Haertle: Każdego da się zhakować
Materiał sponsorowany