Unia ogłosiła wytyczne ws. sztucznej inteligencji. „Zaufanie do AI to konieczność”

22 kwietnia 2021, 09:12
47587178482_337854e810_c
Fot. TechCrunch/Flickr/CC BY 2.0

Rozwiązania bazujące na sztucznej inteligencji, które będą uznawane za zagrażające bezpieczeństwu lub prawom obywateli zostaną zakazane – wynika z ogłoszonych wczoraj przez Komisję Europejską nowych reguł i wytycznych dotyczących tej innowacyjnej technologii. „W odniesieniu do AI zaufanie jest niezbędne, w związku z tym wprowadzając nowe standardy, wyznaczamy kierunek do rozwijania etycznej technologii na całym świecie” – wskazują najwyżsi urzędnicy Unii Europejskiej.

Komisja Europejska zaproponowała wczoraj (tj. 21 kwietnia br.) nowe reguły i działania, których celem jest przekształcenie Europy w globalny hub sztucznej inteligencji (AI). „Połączenie pierwszych w historii przepisów prawa dotyczących AI z nowymi planami państw członkowskich zapewni gwarancję bezpieczeństwa i ochrony podstawowych praw człowieka, przy jednoczesnym zwiększeniu wykorzystania sztucznej inteligencji, inwestycji i innowacji w ramach całej Wspólnoty” – deklaruje KE w oficjalnym stanowisku.

Dla Unii Europejskiej kluczowe jest rozwijanie sztucznej inteligencji w warunkach pogłębiania zaufania do nowoczesnych technologii, co potwierdziła m.in. Margrethe Vestager, wiceprzewodnicząca KE. Odnosząc się do nowych regulacji stwierdziła, że „w odniesieniu do AI zaufanie jest niezbędne”, dlatego też „wprowadzając standardy, wyznaczamy kierunek do rozwijania etycznej technologii na całym świecie”. Z kolei jak dodał Thierry Breton, unijny komisarz ds. rynku wewnętrznego, przedstawione reguły mają zapewnić, że wraz z wdrażaniem sztucznej inteligencji w Europie poszanowane zostaną „nasze wartości i zasady”.

Komisja Europejska podkreśliła, że nowe przepisy będą stosowane bezpośrednio we wszystkich państwach członkowskich UE. Na ich mocy rozwiązania bazujące na AI, które będą uznawane za zagrażające bezpieczeństwu lub prawom obywateli zostaną zakazane, co pokrywa się z doniesieniami Politico, o których mówiliśmy w jednym z naszych materiałów

W unijnym przepisach opisano dwie kluczowe kategorie: „niedopuszczalne ryzyko” oraz „wysokie ryzyko”. Odnoszą się one bezpośrednio do poziomu zagrożenia dla osób i podmiotów w UE, wynikającego z wykorzystania z AI. Pod pierwszym kryterium KE mówi o takich rozwiązaniach technologicznych, które są w stanie np. manipulować ludzkim zachowaniem, aby wpłynąć na „wolną wolę użytkowników”. Z kolei „wysokie ryzyko” dotyczy sztucznej inteligencji używanej w: infrastrukturze krytycznej (np. transport), edukacji (np. ocena egzaminów), bezpieczeństwie urządzeń (np. robotów chirurgicznych), zarządzaniu personelem (np. oprogramowanie do sortowania dokumentacją), usługach prywatnych i publicznych (np. systemy do udzielania kredytów), egzekwowaniu prawa (np. ocena dowodów), zarządzaniu ruchem granicznym i kontrolą graniczną (np. weryfikacja dokumentów) oraz procesach demokratycznych i instytucjach wymiaru sprawiedliwości (np. znajdowanie właściwego przepisu prawa do danego czynu).

Co więcej, Komisja Europejska deklaruje, że systemy sztucznej inteligencji z kategorii „wysokiego ryzyka” będą podlegały silnym restrykcjom, zanim będą one mogły trafić na rynek. Mowa tu o m.in. odpowiednich systemach oceny i ograniczania ryzyka, obowiązku wykorzystywania wysokiej jakości zbiorów danych zasilających AI (w celu minimalizacji ryzyka np. dyskryminacji wyników), konieczności rejestrowania podejmowanych czynności i prowadzenia wyczerpującej dokumentacji, a także przekazaniu jasnych i klarownych informacji dla użytkownika. Warunkiem niezbędnym jest również właściwy nadzór człowieka nad systemem AI oraz „wysoki poziom bezpieczeństwa i dokładności” wykorzystywanych rozwiązań.

„Wszystkie systemy służące do identyfikacji na podstawie danych biometrycznych są postrzegane jako obarczone wysokim ryzykiem i podlegają rygorystycznym wymogom. Ich wykorzystywanie w czasie rzeczywistym w miejscach publicznych w związku z chęcią egzekwowania prawa jest co do zasady zabronione” – stwierdziła Komisja Europejska. Jak dodała, istnieją pewne wyjątki od tej reguły, lecz wymagają one zezwolenia sądu lub innego organu do tego upoważnionego i są objęte ograniczeniem czasowym, geograficznym i mają dotyczyć jedynie konkretnego zbioru danych.

Poza tym unijny organ wskazał, że w nowych przepisach uwzględniono również kategorię „ograniczonego ryzyka”, odnoszącą się do rozwiązań AI, które powinny cechować się przejrzystością (np. w przypadku kontaktu z chatbotem w ramach danej usługi użytkownik powinien zostać poinformowany o tym, że rozmawia z systemem komputerowym) oraz „minimalne ryzyko”, obejmującą „zdecydowanie największy zakres rozwiązań wykorzystujących sztuczną inteligencję” (m.in. gry czy narzędzia antyspamowe).

Komisja Europejska zaproponowała, aby organy państw członkowskich zajmujące się nadzorem rynku czuwały nad wdrażaniem i egzekwowaniem przepisów dotyczących sztucznej inteligencji. Dodatkowo wskazała, że utworzenie Europejskiej Rady ds. Sztucznej Inteligencji ułatwi wprowadzanie w życie ogłoszonych dziś postanowień oraz przyczyni się do zdynamizowania prac nad tworzeniem standardów dla AI w Europie.  

Sztuczna inteligencja otworzy przed nami nowe światy. Jednak te światy wymagają również zasad – wskazała Ursula von der Leyen, szefowa Komisji Europejskiej. Podkreśliła, że poza zasadami i standardami dotyczącymi AI, równie ważny skoordynowany plan uwzględniający reformy i zakres inwestycji, które są niezbędne, aby UE zabezpieczyła sobie pozycję lidera w obszarze sztucznej inteligencji w skali globalnej. W związku z tym szefowa KE poinformowała, że z prawie 150 mld euro przeznaczonych na finansowanie rozwoju technologii cyfrowych, 20% budżetu Next Generation EU zostanie przekazanych na wsparcie europejskiego sektora AI. 

Omawiając zagadnienie sztucznej inteligencji w UE, zwłaszcza w kontekście zaprezentowanych wczoraj zasad i standardów, warto przypomnieć, że kilka tygodni temu 51 europejskich organizacji zajmujących się prawami człowieka, regulacjami cyfrowymi i sprawiedliwością społeczną (m.in. Article19, Watch UK, AlgorithmWatch i European Digital Societ) skierowało do Didiera Reyndersa, unijnego komisarza ds. sprawiedliwości, list otwarty dotyczący wzmocnienia ochrony praw podstawowych w odniesieniu do nowych przepisów odnoszących się do etycznego wykorzystania sztucznej inteligencji w Unii. 

Jak głosiły wówczas organizacje, „ochrona praw podstawowych musi stanowić fundament unijnych regulacji”. W związku z tym – jak informowaliśmy na naszym portalu – domagały się wprowadzenia zakazu używania technologii AI w sposób, który umożliwia naruszanie praw człowieka, w tym poprzez masową inwigilację. „Masowa inwigilacja narusza wolność słowa i nieskrępowane uczestniczenie w życiu społecznym, ponieważ poczucie bycia obserwowanym przyczynia się do zmiany zachowania i autocenzury” – alarmowano w liście. Wydaje się, że wątpliwości i obawy środowiska aktywistów odzwierciedlają unijne zasady odnoszące się do kategorii „niedopuszczalnego ryzyka” oraz „wysokiego ryzyka” w wykorzystaniu sztucznej inteligencji. 

image

 

KomentarzeLiczba komentarzy: 0
No results found.
Tweets CyberDefence24