Polityka i prawo
Akt o sztucznej inteligencji. Już dziś głosowanie w Parlamencie Europejskim
W środę eurodeputowani zagłosują nad propozycją nowych przepisów regulujących sztuczną inteligencję. Akt o sztucznej inteligencji to pierwszy na Zachodzie zestaw przepisów mających brać w karby szybko rozwijającą się branżę.
Głosowanie nad proponowanym kształtem Aktu o sztucznej inteligencji nie kończy prac legislacyjnych nad tą regulacją. Po nim przyjdzie czas na negocjacje w ramach trilogów pomiędzy Komisją Europejską, Parlamentem Europejskim i Radą Unii Europejskiej.
Zaplanowane na środę 14 czerwca głosowanie to jednak etap niezbędny, abyśmy dowiedzieli się, jaki kierunek przybierze regulacja, która jest uważana za kluczowe dla funkcjonowania sfery cyfrowej prawo unijne. Eurodeputowani zdecydują m.in. w kwestiach kontrowersyjnych poprawek do wcześniejszych wersji AI Act, w tym zaproponowanym przez Europejską Partię Ludową zniesieniem kompromisu wokół inwigilacji biometrycznej.
Szersza inwigilacja? Tego chcą liberalni europosłowie
Interesujące jest, że za umożliwieniem szerszego stosowania inwigilacji biometrycznej i systemów rozpoznawania twarzy, które mogą być wykorzystane np. do represjonowania osób biorących udział w antyrządowych demonstracjach, opowiada się Europejska Partia Ludowa, do której należą - z Polski - Platforma Obywatelska i Polskie Stronnictwo Ludowe.
O kontrowersjach wokół proponowanych przez EPP zmian pisaliśmy na łamach naszego serwisu w tym tekście, gdzie tłumaczymy, jakie poprawki wniesione zostały z ramienia tej partii, zrzeszającej polityków o liberalnych poglądach, co każe postawić zasadne pytania o ich realny szacunek względem wolności obywatelskich.
Akt o sztucznej inteligencji to jednak nie tylko kontrowersyjne zmiany. Co jeszcze trzeba wiedzieć o tych regulacjach?
Kluczowe ramy prawne
Prace nad Aktem o sztucznej inteligencji rozpoczęły się w 2021 r., kiedy zestaw przepisów został zaproponowany przez Komisję Europejską. Celem było uregulowanie nie całej branży sztucznej inteligencji, ale systemów opartych o tę technologię, w oparciu o cztery poziomy ryzyka - od minimalnego do nieakceptowalnego.
Klasyfikację tę, jak i system oceny ryzyka dla rozwiązań opartych o sztuczną inteligencję przewidziany przez projektowane przepisy opisaliśmy w serwisie CyberDefence24.pl w tej analizie.
Istotnym elementem AI Act jest kwestia odpowiedzialności - dostawcy systemów reprezentujących wysokie ryzyko, będą musieli poddawać je niezależnym audytom i zachowywać wymogi przejrzystości działania algorytmów, jak i gwarantować, że dane, które są wykorzystywane do szkolenia, nie przełożą się np. na dyskryminację osób poddanych działaniu sztucznej inteligencji.
Akt o sztucznej inteligencji idzie drogą RODO oraz Aktu o usługach cyfrowych (DSA) i Aktu o rynkach cyfrowych (DMA). Za naruszenia przepisów grożą wysokie kary finansowe - w wersji, która trafi pod głosowanie, to nawet 30 mln euro lub 6 proc. globalnych przychodów firmy, która złamie przepisy.
Czemu ma służyć Akt o sztucznej inteligencji?
Przede wszystkim zapewnieniu, że systemy oparte o sztuczną inteligencję będą działały w granicach praw podstawowych i z poszanowaniem godności oraz zasad demokracji. AI Act ma np. zabezpieczać Europejczyków przed powstaniem rozwiązań takich, jak chiński system kredytu społecznego, w którym sztuczna inteligencja analizuje zachowania poszczególnych osób i na tej podstawie rozdzielany jest np. dostęp do usług publicznych.
Akt o sztucznej inteligencji bardzo jasno stawia również granice względem wykorzystania AI w systemach predyktywnego zarządzania np. przestępczością - nie mogą być stosowane, bo dość już mamy na świecie przykładów, w których algorytmy niesłusznie wskazywały jako osoby podejrzane o możliwość popełnienia przestępstwa przedstawicieli mniejszości etnicznych lub mieszkańców uboższych dzielnic, tylko na tej podstawie - podczas, gdy nie mieli oni z przestępczością nic wspólnego.
Co z ChatemGPT?
ChatGPT został uznany za system wysokiego ryzyka, przede wszystkim ze względu na możliwości manipulacji, która może być owocem jego wykorzystania.
Do przepisów AI Act regulujących systemy takie, jak wspomniany już model, doszedł wymóg dokumentowania przypadków użycia treści objętych prawem autorskim do szkolenia algorytmów. Naruszanie praw własności intelektualnej to w kontekście generatywnej sztucznej inteligencji ogromny problem nie tylko z perspektywy naukowców, dziennikarzy czy autorów literatury, ale także artystów - o czym można przeczytać w naszym serwisie m.in. w wywiadzie z cyfrowym artystą Mikołajem Birkiem.
Zdążyć przed katastrofą
AI Act to regulacje, które czeka jeszcze długa droga w procesie stanowienia prawa, a jak wspomniała już wcześniej wiceprzewodnicząca KE Margrethe Vestager, wejdą one w życie dopiero za dwa lub nawet trzy lata.
To o wiele za późno, by mieć nadzieję, że przepisy przełożą się na realną ochronę obywateli UE w czasie, w którym branża AI rozwija się najbardziej dynamicznie, czyli teraz - i niestety, kolejny raz warto w tym miejscu spojrzeć w stronę Chin, które kosztem praw człowieka i wolności obywatelskich prawa regulujące sztuczną inteligencję wdrożyły do swojego systemu już w styczniu.
Szybki rozwój AI budzi obawy, czego wyrazem może być m.in. zainteresowanie kwestią jak najszybszych regulacji tej branży po stronie choćby liderów państw grupy G7 . Czy brak ram prawnych opracowanych na czas kolejny raz - jak to było już w przypadku mediów społecznościowych - przełoży się na szkody dla społeczeństwa i rzeczywistości cyfrowego rynku? Wszystko zależy od rozsądku tych, których w przyszłości mają dotyczyć regulacje - a w gronie tym próżno szukać filantropów. Sztuczna inteligencja to nowa żyła złota.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na:[email protected].
Haertle: Każdego da się zhakować
Materiał sponsorowany