Reklama

Technologie

Rada Unii Europejskiej przyjęła Akt o sztucznej inteligencji

Rada Unii Europejskiej przyjęła Akt o sztucznej inteligencji
Akt o sztucznej inteligencji to pierwsze takie prawo na świecie.
Autor. Steve Johnson / Unsplash / https://unsplash.com/photos/a-computer-generated-image-of-the-letter-a-ZPOoDQc8yMw

Rada UE przyjęła Akt o sztucznej inteligencji (AI Act) 21 maja. Ten krok okrzyknięto „przełomowym”. Czy rzeczywiście tak jest? Ocenia to prawnik i adwokat Alicja Kaszuba w rozmowie z CyberDefence24.pl.

Akt o sztucznej inteligencji to pierwsze takie prawo na świecie. W dokumencie zastosowano podejście „oparte na ryzyku”, co oznacza, że im wyższe ryzyko wyrządzenia szkody społeczeństwu, tym surowsze zasady dotyczące wprowadzenia systemów AI na rynek europejski.

Kategorie ryzyka

Nowe prawo wprowadza kilka kategorii systemów AI. Modele niskiego ryzyka systemowego (np. chatboty) oraz powodujące ograniczone ryzyko będą podlegać niewielkim wymogom, głównie dotyczącym przejrzystości. Chodzi o to, aby użytkownicy wiedzieli, że korzystają z systemów opartych na AI. Narzędzia te będą więc musiały być odpowiednio oznaczone.

Systemy wysokiego ryzyka

Systemy sztucznej inteligencji wysokiego ryzyka będą dopuszczone, ale będą podlegały szeregowi wymogów i obowiązków, związanych z uzyskaniem dostępu do rynku UE. Do tej kategorii zalicza się systemy, które będą stosowane w ochronie zdrowia, edukacji, sądownictwie, instytucjach finansowych itp.

Czytaj też

Reklama

Systemy zakazane

Część systemów zostanie zupełnie zakazanych w UE - związane z nimi ryzyko uznano za niedopuszczalne.  Do tej kategorii zaliczają się systemy manipulacji poznawczo-behawioralnej i punktacji społecznej.

Prawo zabrania również wykorzystywania sztucznej inteligencji do predykcyjnych działań policyjnych opartych na profilowaniu, które wykorzystują dane biometryczne do kategoryzowania ludzi według określonych kategorii, takich jak rasa, religia czy orientacja seksualna. Chodzi tu m.in. o systemy rozpoznawania twarzy.

Czytaj też

Reklama

Sztuczna inteligencji ogólnego przeznaczenia

Akt o sztucznej inteligencji reguluje również kwestię stosowania modeli sztucznej inteligencji ogólnego przeznaczenia. Tu także zastosowano podejście oparte na ryzyku.

Nowe organy

Przepisy zakładają również powołanie nowych organów monitorujących przestrzeganie prawa, w tym Urzędu ds. Sztucznej Inteligencji przy Komisji Europejskiej, a także rady, w której zasiadać mają przedstawiciele państw unijnych.

Czytaj też

Reklama

Kary za nieprzestrzeganie

Firmy, które nie będą przestrzegać unijnych przepisów o AI, będą musiały liczyć się z surowymi karami. Będzie to albo część rocznego globalnego obrotu firmy lub odgórnie określona grzywna. Małym i średnim przedsiębiorstwom oraz startupom grozić będą raczej kary administracyjne.

"Efekt brukselski"

Przejęcie AI Actu skomentowała w rozmowie z CyberDefence prawnik i adwokat Alicja Kaszuba. „Dobrze się stało, że AI Act został przyjęty. Był to krok planowany i zapowiadany. Miejmy nadzieję, że akt będzie służył jako przykład dla innych części świata w kwestii konieczności uregulowania systemu sztucznej inteligencji. To zjawisko nazwano efektem brukselskim” – mówi ekspertka w rozmowie z nami.

Czytaj też

Sztuczna inteligencja godna zaufania

Alicja Kaszuba zapytana o to, jak ocenia Akt komentuje: „Moje subiektywne odczucie na temat AI Actu jest takie, że jest to prawo, które dotyczy głównie kwestii technicznych i systemów wysokiego ryzyka. Co prawda odwołuje się nieco do etyki i idei sztucznej inteligencji godnej zaufania, jednak w mojej opinii – za mało”.

Jej zdaniem, do systemów niskiego ryzyka nie ma dużych wymogów. Natomiast jeżeli zdecydujemy się oddać część kompetencji czy władzy sztucznej inteligencji, to mamy prawo wymagać, że będzie ona działała na naszą korzyść.

„Dla mnie godna zaufania sztuczna inteligencja musiałaby się wiązać z pewnego rodzaju dobrowolnością, a mianowicie, że społeczeństwo powinno decydować, czy dane systemy są nam potrzebne, służą naszemu dobru. Aby podjąć taką decyzję, potrzebna jest ocena wpływu, wykazanie potencjalnych ryzyk. I nawet jeżeli dany system, w świetle AI Act jest dopuszczalny i spełnia te wymogi techniczne, ale przynosi jakieś negatywne skutki dla społeczeństwa, to w mojej ocenie taki system nie mieściłby się w definicji »Trustworthy AI«” – ocenia ekspertka.

Czytaj też

"Nie da się wszystkiego uregulować"

Jak twierdzi Alicja Kaszuba, te kwestie powinny podlegać dalszym regulacjom. „Z drugiej strony, trudno uregulować wszystko i nadawać poszczególnym krajom tak duże kompetencje. Ważne jest też, żeby regulacje nie spowodowały ograniczenia wolności gospodarczej” – zaznacza prawniczka.

Jak dodaje: „bardzo istotna jest więc ocena wpływu dokonywana przez całą organizację, ale też nadzór nad przestrzeganiem prawa, czym powinien się zająć niezależny organ”.

Czytaj też

Dalsze kroki

Obecnie Akt o sztucznej inteligencji czeka na podpis przewodniczących Parlamentu Europejskiego i Rady UE. Następnie, w ciągu najbliższych kilku dni, AI Act zostanie opublikowany w Dzienniku Urzędowym UE i wejdzie w życie 20 dni po publikacji.

Nowe prawo będzie obowiązywać na ternie UE dwa lata po wejściu w życie, czyli w 2026 roku.

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na:*[email protected].*

Źródło:PAP / CyberDefence24
Reklama

Komentarze

    Reklama