Reklama

Polityka i prawo

Co zmienią unijne regulacje sztucznej inteligencji – AI Act?

Autor. Sara Kurfeß / Unsplash

Celem zaproponowanych przez Komisję Europejską regulacji sztucznej inteligencji, które zawarte będą w AI Act (Akcie o sztucznej inteligencji) jest ograniczenie zagrożeń wynikających z różnych zastosowań tej technologii, a w szczególności tych, które obejmują profilowanie ludzi i zautomatyzowane podejmowanie decyzji.

Reklama

Gospodarka cyfrowa to jeden z priorytetów Komisji Europejskiej. AI Act natomiast to kolejna regulacja, która ma za zadanie stworzyć dla niej ramy zabezpieczające jednocześnie interesy obywateli państw unijnych, jak i dające pole do rozwoju podmiotów cyfrowego biznesu.

Reklama

Prace nad AI Act trwają i niebawem wejdą w swoją decydującą fazę – pod koniec października komisje Parlamentu Europejskiego będą dyskutować nad poprawkami do regulacji, które później będą głosowane zarówno w ramach tych zespołów, jak i na posiedzeniu plenarnym. W związku z tym, planowanym regulacjom dotyczącym sztucznej inteligencji przyjrzał się think-tank Polityka Insight, który na zlecenie Fundacji Panoptykon opublikował specjalny raport dotyczący AI Act .

Dlaczego KE chce uregulować sztuczną inteligencję?

Przede wszystkim dlatego, że – jak zwraca uwagę Polityka Insight – „sztuczna inteligencja jest grupą technologii o bardzo szerokich zastosowaniach i rosnącym znaczeniu". Może być wykorzystywana zarówno w celach służących dobru wspólnemu, jak np. projektowanie lepszych polityk publicznych w oparciu o analizę danych, jak i zdecydowanie w złych zamiarach – do celów takich jak dezinformacja np. przez tworzenie deep fake'ów.

Reklama

„Sztuczna inteligencja nie dysponuje >>zdrowym rozsądkiem<<, ma problemy z uczeniem się na bieżąco (trzeba ponownie trenować modele z użyciem nowych danych) i odróżnianiem skutku od przyczyny, działań etycznych i nieetycznych" – czytamy w raporcie PI.

Czytaj też

„Osoba dotknięta decyzją podjętą de facto przez system sztucznej inteligencji (nawet jeśli w procesie, zgodnie z unijnym prawem, uczestniczy człowiek), może mieć trudności z jej zrozumieniem, a tym bardziej z jej wyjaśnieniem czy zakwestionowaniem" – dodano w analizie.

Widzimy więc, że podstaw do wdrożenia regulacji jest sporo – autorzy proponowanych przepisów mają nadzieję, że dzięki nim społeczeństwo zostanie zabezpieczone przed negatywnymi skutkami niekontrolowanego stosowania technologii sztucznej inteligencji m.in. w procesach zautomatyzowanego podejmowania decyzji czy w innych procesach, w których zachodzi np. profilowanie osób.

Zastosowania technologii sztucznej inteligencji w tego rodzaju procedurach budzą duże kontrowersje, a raport wskazuje na jeszcze jeden problem – brak zdefiniowanej odpowiedzialności za błędy systemu. Również tę kwestię mają rozwiązać unijne przepisy.

Czytaj też

Co znajdzie się w AI Act?

Przede wszystkim – proponowana przez KE regulacja podzieli systemy sztucznej inteligencji pod kątem stwarzanego przez nie ryzyka. AI Act wprowadza także definicję systemu sztucznej inteligencji – to oprogramowanie opracowane przy użyciu co najmniej jednej z trzech technik wymienionych w załączniku do treści regulacji, które zostało stworzone dla danego zestawu celów określonych przez człowieka. Mogą to być: generowanie wyników, takich jak treści, przewidywania, zalecenia lub decyzje wpływające na środowiska, z którymi wchodzi w interakcję.

Techniki, które mają definiować to, czy coś jest czy nie jest systemem sztucznej inteligencji, to z kolei: mechanizmy uczenia maszynowego, w tym uczenie nadzorowane, uczenie się maszyn bez nadzoru i uczenie przez wzmacnianie, z wykorzystaniem szerokiej gamy metod, w tym – uczenia głębokiego. To także metody oparte na logice i wiedzy, w tym reprezentacja wiedzy, logiczne programowanie, bazy wiedzy, silniki inferencyjne i dedukcyjne, rozumowanie (symboliczne), systemy eksperckie. Wreszcie, trzecim wyróżnikiem są podejścia statystyczne, a także metody wyszukiwania i optymalizacji.

Czytaj też

Podział ryzyka

Raport PI podkreśla, że AI Act dzieli systemy sztucznej inteligencji na cztery kategorie ryzyka: nieakceptowalne, wysokie, ograniczone (wiążące się z ryzykiem manipulacji) i minimalne. Według regulacji, wykorzystanie systemów, które cechuje nieakceptowalne ryzyko, ma być zakazane.

Tworzenie i wykorzystywanie systemów cechujących się wysokim stopniem ryzyka ma natomiast podlegać szeregowi obostrzeń i obowiązków.

W przypadku systemów o minimalnym stopniu ryzyka, obowiązkiem twórców i administratorów takiego systemu będzie jedynie informowanie użytkowników o tym, że spotykają się podczas korzystania z danego produktu czy usługi ze sztuczną inteligencją.

Czytaj też

To, co zakazane i to, co dozwolone

AI Act wyróżnia również zakazane praktyki, które PI wymienia w swoim raporcie jako ograniczniki kontrolne dla wykorzystania systemów sztucznej inteligencji. Są to:

  • udostępnianie i wykorzystanie systemów opartych na technikach podprogowych w celu istotnego zniekształcenia zachowań danej osoby „w sposób, który powoduje lub może powodować u niej lub u innej osoby szkodę fizyczną lub psychiczną"
  • udostępnianie i wykorzystywanie systemów wykorzystujących „dowolne słabości określonej grupy ze względu na ich wiek, niepełnosprawność ruchową lub zaburzenie psychiczne w celu istotnego zniekształcenia zachowania osoby należącej do tej grupy w sposób, który powoduje lub może powodować u tej osoby lub u innej osoby szkodę fizyczną lub psychiczną"
  • udostępnianie lub wykorzystanie przez organy publiczne systemów podobnych do chińskiego systemu zaufania społecznego
  • wykorzystanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej
  • wykorzystanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów egzekwowania prawa, z wyjątkiem zapobiegania poważnym zagrożeniom oraz poszukiwania ofiar przestępstw lub ich sprawców

Systemy wysokiego ryzyka, jak wspomina PI w swoim raporcie, zostały określone przez planowane regulacje w następujący sposób:

  • systemy identyfikacji biometrycznej
  • związane z zarządzaniem i funkcjonowaniem infrastruktury krytycznej
  • związane z edukacją i szkoleniem zawodowym, w tym – rekrutacją do placówek edukacyjnych
  • związane z zatrudnieniem i zarządzaniem zasobami ludzkimi
  • związane z dostępem do usług prywatnych i publicznych, w tym – systemy oceny zdolności kredytowej i zarządzania służbami ratunkowymi
  • związane z egzekwowaniem prawa, w tym – do oceny ryzyka popełnienia przestępstwa przez daną osobę, oceny stanów emocjonalnych, wykrywania deep fake'ów i oceny wartości dowodów w śledztwie
  • systemy przeznaczone do zarządzania migracją, dostępem do azylu i zarządzaniem granicami
  • systemu związane z wymiarem sprawiedliwości, procesami demokratycznymi

Czytaj też

Kto będzie odpowiedzialny za działanie systemów wysokiego ryzyka?

Polityka Insight wskazuje, że przede wszystkim – dostawcy systemów sztucznej inteligencji. „Większość obowiązków związanych z systemami wysokiego ryzyka spoczywa na ich dostawcach, a więc dotyczą one projektowania, testowania, audytowania i certyfikowania systemów" – czytamy w opracowaniu.

Dostawca systemu zobowiązany jest do tego, aby stworzyć mechanizm zarządzania ryzykiem jego produktu i stosować go przez cały cykl życia sztucznej inteligencji. To również on zobowiązany jest do tego, aby zapewnić iż zbiory danych przeznaczone do trenowania AI spełniały jakość, były reprezentatywne i były testowane pod kątem ryzyka przechyłu algorytmicznego.

Czytaj też

Stymulowanie rozwoju technologii sztucznej inteligencji w UE

PI podkreśla, że Komisja Europejska nie chce przeregulować sztucznej inteligencji, dlatego zakres regulacji proponowanych przez AI Act jest dosyć wąski w kwestiach dotyczących rynku.

Wprowadzane są także zachęty dla innowatorów, które mają pomóc budować pozycję krajów UE w branży AI, a startupy jako pierwsze będą miały dostęp do tzw. piaskownic regulacyjnych w obszarze sztucznej inteligencji.

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Haertle: Każdego da się zhakować

Materiał sponsorowany

Komentarze

    Reklama