Technologie
Rada Unii Europejskiej przyjęła Akt o sztucznej inteligencji
Rada UE przyjęła Akt o sztucznej inteligencji (AI Act) 21 maja. Ten krok okrzyknięto „przełomowym”. Czy rzeczywiście tak jest? Ocenia to prawnik i adwokat Alicja Kaszuba w rozmowie z CyberDefence24.pl.
Akt o sztucznej inteligencji to pierwsze takie prawo na świecie. W dokumencie zastosowano podejście „oparte na ryzyku”, co oznacza, że im wyższe ryzyko wyrządzenia szkody społeczeństwu, tym surowsze zasady dotyczące wprowadzenia systemów AI na rynek europejski.
#TTE | 🇪🇺telecoms ministers adopted the artificial intelligence act today
— EU Council (@EUCouncil) May 21, 2024
They also discussed the implementation of EU rules in the digital field and approved conclusions on the EU's digital policy and on cybersecurity.
Read the main results https://t.co/Q4eWvrgslw pic.twitter.com/Ayf6EF5NS9
Kategorie ryzyka
Nowe prawo wprowadza kilka kategorii systemów AI. Modele niskiego ryzyka systemowego (np. chatboty) oraz powodujące ograniczone ryzyko będą podlegać niewielkim wymogom, głównie dotyczącym przejrzystości. Chodzi o to, aby użytkownicy wiedzieli, że korzystają z systemów opartych na AI. Narzędzia te będą więc musiały być odpowiednio oznaczone.
Systemy wysokiego ryzyka
Systemy sztucznej inteligencji wysokiego ryzyka będą dopuszczone, ale będą podlegały szeregowi wymogów i obowiązków, związanych z uzyskaniem dostępu do rynku UE. Do tej kategorii zalicza się systemy, które będą stosowane w ochronie zdrowia, edukacji, sądownictwie, instytucjach finansowych itp.
Czytaj też
Systemy zakazane
Część systemów zostanie zupełnie zakazanych w UE - związane z nimi ryzyko uznano za niedopuszczalne. Do tej kategorii zaliczają się systemy manipulacji poznawczo-behawioralnej i punktacji społecznej.
Prawo zabrania również wykorzystywania sztucznej inteligencji do predykcyjnych działań policyjnych opartych na profilowaniu, które wykorzystują dane biometryczne do kategoryzowania ludzi według określonych kategorii, takich jak rasa, religia czy orientacja seksualna. Chodzi tu m.in. o systemy rozpoznawania twarzy.
Czytaj też
Sztuczna inteligencji ogólnego przeznaczenia
Akt o sztucznej inteligencji reguluje również kwestię stosowania modeli sztucznej inteligencji ogólnego przeznaczenia. Tu także zastosowano podejście oparte na ryzyku.
Nowe organy
Przepisy zakładają również powołanie nowych organów monitorujących przestrzeganie prawa, w tym Urzędu ds. Sztucznej Inteligencji przy Komisji Europejskiej, a także rady, w której zasiadać mają przedstawiciele państw unijnych.
Czytaj też
Kary za nieprzestrzeganie
Firmy, które nie będą przestrzegać unijnych przepisów o AI, będą musiały liczyć się z surowymi karami. Będzie to albo część rocznego globalnego obrotu firmy lub odgórnie określona grzywna. Małym i średnim przedsiębiorstwom oraz startupom grozić będą raczej kary administracyjne.
"Efekt brukselski"
Przejęcie AI Actu skomentowała w rozmowie z CyberDefence prawnik i adwokat Alicja Kaszuba. „Dobrze się stało, że AI Act został przyjęty. Był to krok planowany i zapowiadany. Miejmy nadzieję, że akt będzie służył jako przykład dla innych części świata w kwestii konieczności uregulowania systemu sztucznej inteligencji. To zjawisko nazwano efektem brukselskim” – mówi ekspertka w rozmowie z nami.
Czytaj też
Sztuczna inteligencja godna zaufania
Alicja Kaszuba zapytana o to, jak ocenia Akt komentuje: „Moje subiektywne odczucie na temat AI Actu jest takie, że jest to prawo, które dotyczy głównie kwestii technicznych i systemów wysokiego ryzyka. Co prawda odwołuje się nieco do etyki i idei sztucznej inteligencji godnej zaufania, jednak w mojej opinii – za mało”.
Jej zdaniem, do systemów niskiego ryzyka nie ma dużych wymogów. Natomiast jeżeli zdecydujemy się oddać część kompetencji czy władzy sztucznej inteligencji, to mamy prawo wymagać, że będzie ona działała na naszą korzyść.
„Dla mnie godna zaufania sztuczna inteligencja musiałaby się wiązać z pewnego rodzaju dobrowolnością, a mianowicie, że społeczeństwo powinno decydować, czy dane systemy są nam potrzebne, służą naszemu dobru. Aby podjąć taką decyzję, potrzebna jest ocena wpływu, wykazanie potencjalnych ryzyk. I nawet jeżeli dany system, w świetle AI Act jest dopuszczalny i spełnia te wymogi techniczne, ale przynosi jakieś negatywne skutki dla społeczeństwa, to w mojej ocenie taki system nie mieściłby się w definicji »Trustworthy AI«” – ocenia ekspertka.
Czytaj też
"Nie da się wszystkiego uregulować"
Jak twierdzi Alicja Kaszuba, te kwestie powinny podlegać dalszym regulacjom. „Z drugiej strony, trudno uregulować wszystko i nadawać poszczególnym krajom tak duże kompetencje. Ważne jest też, żeby regulacje nie spowodowały ograniczenia wolności gospodarczej” – zaznacza prawniczka.
Jak dodaje: „bardzo istotna jest więc ocena wpływu dokonywana przez całą organizację, ale też nadzór nad przestrzeganiem prawa, czym powinien się zająć niezależny organ”.
Czytaj też
Dalsze kroki
Obecnie Akt o sztucznej inteligencji czeka na podpis przewodniczących Parlamentu Europejskiego i Rady UE. Następnie, w ciągu najbliższych kilku dni, AI Act zostanie opublikowany w Dzienniku Urzędowym UE i wejdzie w życie 20 dni po publikacji.
Nowe prawo będzie obowiązywać na ternie UE dwa lata po wejściu w życie, czyli w 2026 roku.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na:*[email protected].*