Polityka i prawo
Co zmienią unijne regulacje sztucznej inteligencji – AI Act?
Celem zaproponowanych przez Komisję Europejską regulacji sztucznej inteligencji, które zawarte będą w AI Act (Akcie o sztucznej inteligencji) jest ograniczenie zagrożeń wynikających z różnych zastosowań tej technologii, a w szczególności tych, które obejmują profilowanie ludzi i zautomatyzowane podejmowanie decyzji.
Gospodarka cyfrowa to jeden z priorytetów Komisji Europejskiej. AI Act natomiast to kolejna regulacja, która ma za zadanie stworzyć dla niej ramy zabezpieczające jednocześnie interesy obywateli państw unijnych, jak i dające pole do rozwoju podmiotów cyfrowego biznesu.
Prace nad AI Act trwają i niebawem wejdą w swoją decydującą fazę – pod koniec października komisje Parlamentu Europejskiego będą dyskutować nad poprawkami do regulacji, które później będą głosowane zarówno w ramach tych zespołów, jak i na posiedzeniu plenarnym. W związku z tym, planowanym regulacjom dotyczącym sztucznej inteligencji przyjrzał się think-tank Polityka Insight, który na zlecenie Fundacji Panoptykon opublikował specjalny raport dotyczący AI Act .
Dlaczego KE chce uregulować sztuczną inteligencję?
Przede wszystkim dlatego, że – jak zwraca uwagę Polityka Insight – „sztuczna inteligencja jest grupą technologii o bardzo szerokich zastosowaniach i rosnącym znaczeniu". Może być wykorzystywana zarówno w celach służących dobru wspólnemu, jak np. projektowanie lepszych polityk publicznych w oparciu o analizę danych, jak i zdecydowanie w złych zamiarach – do celów takich jak dezinformacja np. przez tworzenie deep fake'ów.
„Sztuczna inteligencja nie dysponuje >>zdrowym rozsądkiem<<, ma problemy z uczeniem się na bieżąco (trzeba ponownie trenować modele z użyciem nowych danych) i odróżnianiem skutku od przyczyny, działań etycznych i nieetycznych" – czytamy w raporcie PI.
Czytaj też
„Osoba dotknięta decyzją podjętą de facto przez system sztucznej inteligencji (nawet jeśli w procesie, zgodnie z unijnym prawem, uczestniczy człowiek), może mieć trudności z jej zrozumieniem, a tym bardziej z jej wyjaśnieniem czy zakwestionowaniem" – dodano w analizie.
Widzimy więc, że podstaw do wdrożenia regulacji jest sporo – autorzy proponowanych przepisów mają nadzieję, że dzięki nim społeczeństwo zostanie zabezpieczone przed negatywnymi skutkami niekontrolowanego stosowania technologii sztucznej inteligencji m.in. w procesach zautomatyzowanego podejmowania decyzji czy w innych procesach, w których zachodzi np. profilowanie osób.
Zastosowania technologii sztucznej inteligencji w tego rodzaju procedurach budzą duże kontrowersje, a raport wskazuje na jeszcze jeden problem – brak zdefiniowanej odpowiedzialności za błędy systemu. Również tę kwestię mają rozwiązać unijne przepisy.
Czytaj też
Co znajdzie się w AI Act?
Przede wszystkim – proponowana przez KE regulacja podzieli systemy sztucznej inteligencji pod kątem stwarzanego przez nie ryzyka. AI Act wprowadza także definicję systemu sztucznej inteligencji – to oprogramowanie opracowane przy użyciu co najmniej jednej z trzech technik wymienionych w załączniku do treści regulacji, które zostało stworzone dla danego zestawu celów określonych przez człowieka. Mogą to być: generowanie wyników, takich jak treści, przewidywania, zalecenia lub decyzje wpływające na środowiska, z którymi wchodzi w interakcję.
Techniki, które mają definiować to, czy coś jest czy nie jest systemem sztucznej inteligencji, to z kolei: mechanizmy uczenia maszynowego, w tym uczenie nadzorowane, uczenie się maszyn bez nadzoru i uczenie przez wzmacnianie, z wykorzystaniem szerokiej gamy metod, w tym – uczenia głębokiego. To także metody oparte na logice i wiedzy, w tym reprezentacja wiedzy, logiczne programowanie, bazy wiedzy, silniki inferencyjne i dedukcyjne, rozumowanie (symboliczne), systemy eksperckie. Wreszcie, trzecim wyróżnikiem są podejścia statystyczne, a także metody wyszukiwania i optymalizacji.
Czytaj też
Podział ryzyka
Raport PI podkreśla, że AI Act dzieli systemy sztucznej inteligencji na cztery kategorie ryzyka: nieakceptowalne, wysokie, ograniczone (wiążące się z ryzykiem manipulacji) i minimalne. Według regulacji, wykorzystanie systemów, które cechuje nieakceptowalne ryzyko, ma być zakazane.
Tworzenie i wykorzystywanie systemów cechujących się wysokim stopniem ryzyka ma natomiast podlegać szeregowi obostrzeń i obowiązków.
W przypadku systemów o minimalnym stopniu ryzyka, obowiązkiem twórców i administratorów takiego systemu będzie jedynie informowanie użytkowników o tym, że spotykają się podczas korzystania z danego produktu czy usługi ze sztuczną inteligencją.
Czytaj też
To, co zakazane i to, co dozwolone
AI Act wyróżnia również zakazane praktyki, które PI wymienia w swoim raporcie jako ograniczniki kontrolne dla wykorzystania systemów sztucznej inteligencji. Są to:
- udostępnianie i wykorzystanie systemów opartych na technikach podprogowych w celu istotnego zniekształcenia zachowań danej osoby „w sposób, który powoduje lub może powodować u niej lub u innej osoby szkodę fizyczną lub psychiczną"
- udostępnianie i wykorzystywanie systemów wykorzystujących „dowolne słabości określonej grupy ze względu na ich wiek, niepełnosprawność ruchową lub zaburzenie psychiczne w celu istotnego zniekształcenia zachowania osoby należącej do tej grupy w sposób, który powoduje lub może powodować u tej osoby lub u innej osoby szkodę fizyczną lub psychiczną"
- udostępnianie lub wykorzystanie przez organy publiczne systemów podobnych do chińskiego systemu zaufania społecznego
- wykorzystanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej
- wykorzystanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów egzekwowania prawa, z wyjątkiem zapobiegania poważnym zagrożeniom oraz poszukiwania ofiar przestępstw lub ich sprawców
Systemy wysokiego ryzyka, jak wspomina PI w swoim raporcie, zostały określone przez planowane regulacje w następujący sposób:
- systemy identyfikacji biometrycznej
- związane z zarządzaniem i funkcjonowaniem infrastruktury krytycznej
- związane z edukacją i szkoleniem zawodowym, w tym – rekrutacją do placówek edukacyjnych
- związane z zatrudnieniem i zarządzaniem zasobami ludzkimi
- związane z dostępem do usług prywatnych i publicznych, w tym – systemy oceny zdolności kredytowej i zarządzania służbami ratunkowymi
- związane z egzekwowaniem prawa, w tym – do oceny ryzyka popełnienia przestępstwa przez daną osobę, oceny stanów emocjonalnych, wykrywania deep fake'ów i oceny wartości dowodów w śledztwie
- systemy przeznaczone do zarządzania migracją, dostępem do azylu i zarządzaniem granicami
- systemu związane z wymiarem sprawiedliwości, procesami demokratycznymi
Czytaj też
Kto będzie odpowiedzialny za działanie systemów wysokiego ryzyka?
Polityka Insight wskazuje, że przede wszystkim – dostawcy systemów sztucznej inteligencji. „Większość obowiązków związanych z systemami wysokiego ryzyka spoczywa na ich dostawcach, a więc dotyczą one projektowania, testowania, audytowania i certyfikowania systemów" – czytamy w opracowaniu.
Dostawca systemu zobowiązany jest do tego, aby stworzyć mechanizm zarządzania ryzykiem jego produktu i stosować go przez cały cykl życia sztucznej inteligencji. To również on zobowiązany jest do tego, aby zapewnić iż zbiory danych przeznaczone do trenowania AI spełniały jakość, były reprezentatywne i były testowane pod kątem ryzyka przechyłu algorytmicznego.
Czytaj też
Stymulowanie rozwoju technologii sztucznej inteligencji w UE
PI podkreśla, że Komisja Europejska nie chce przeregulować sztucznej inteligencji, dlatego zakres regulacji proponowanych przez AI Act jest dosyć wąski w kwestiach dotyczących rynku.
Wprowadzane są także zachęty dla innowatorów, które mają pomóc budować pozycję krajów UE w branży AI, a startupy jako pierwsze będą miały dostęp do tzw. piaskownic regulacyjnych w obszarze sztucznej inteligencji.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].
Haertle: Każdego da się zhakować
Materiał sponsorowany