Reklama

Polityka i prawo

Regulacje sztucznej inteligencji. O krok bliżej od pierwszych przepisów dot. AI

Co zmieni akt o cybersolidarności w UE?
Co zmieni akt o cybersolidarności w UE?
Autor. EU_Commission/ Twitter

Sztuczna inteligencja odmieniana jest przez wszystkie przypadki, jednak mało kto mówi o kwestii jej regulacji. Natomiast prace nad projektem w tej sprawie trwają na poziomie unijnym. Po ich zatwierdzeniu będą to pierwsze tego typu przepisy dotyczące AI na świecie.

Reklama

W czwartek Komisja Rynku Wewnętrznego i Komisja Wolności Obywatelskich przyjęły mandaty negocjacyjne dotyczące projektu regulacji sztucznej inteligencji (tzw. AI Act) przy 84 głosach „za”, 7 sprzeciwiających się oraz 12 – wstrzymujących się.

Reklama

Zanim rozpoczną się negocjacje z Radą w sprawie ostatecznego kształtu ustawy, projekt mandatu negocjacyjnego musi zostać zatwierdzony przez cały Parlament. Głosowanie w tej sprawie może odbyć się w czasie sesji plenarnej, planowanej na 12-15 czerwca br.

Posłowie Parlamentu Europejskiego mają dążyć do przepisów, które sprawią, że systemy AI będą nadzorowane przez ludzi, „bezpieczne, przejrzyste, identyfikowalne, niedyskryminujące i przyjazne dla środowiska”. Celem ma być również jednolita definicja AI – "neutralna pod względem technologicznym" – oraz by była dopasowana zarówno do obecnych, jak i przyszłych systemów AI.

Reklama

Czytaj też

Akt o AI

Akt o sztucznej inteligencji będzie pierwszym tego typu dokumentem na świecie, który – jak czytamy w komunikacie PE – przewiduje m.in. zakaz nadzoru biometrycznego, rozpoznawania emocji, predykcyjnych systemów sztucznej inteligencji; dostosowanie takich modeli jak GPT do „ogólnego przeznaczenia” czy prawo do składania skarg dotyczących systemów SI.

W regulacjach chodzi przede wszystkim o to, by zapewnić etyczny rozwój sztucznej inteligencji w Europie, podczas gdy wyścig o najlepsze modele AI trwa i z dnia na dzień tylko nabiera tempa.

Przepisy m.in. zakładają podejście oparte na analizie ryzyka SI i obowiązkach dostawców oraz użytkowników. Surowo zabronione mają być np. „systemy, które wykorzystują techniki podprogowe lub celowo manipulacyjne, wykorzystują podatności ludzi na zagrożenia lub są wykorzystywane do oceny społecznej”. Chodzi m.in. o uniknięcie dyskryminacji i klasyfikacji ludzi na podstawie ich statusu czy też cech.

Czytaj też

Zagrożenie ze strony sztucznej inteligencji

Posłowie PE wprowadzili zmiany, by uwzględnić zakazy „inwazyjnego i dyskryminującego wykorzystania systemów sztucznej inteligencji”. Jak czytamy, chodzi m.in. o systemy zdalnej identyfikacji biometrycznej „w czasie rzeczywistym” w publicznie dostępnych przestrzeniach; systemy zdalnej identyfikacji biometrycznej „po fakcie” - z wyjątkiem organów ścigania w przypadku poważnych przestępstw i tylko po uzyskaniu zezwolenia sądowego; systemy kategoryzowania na podstawie biometrii, wykorzystujące wrażliwe cechy (np. płeć, rasę, pochodzenie etniczne, obywatelstwo, religię, orientację polityczną); predykcyjne systemy policyjne (oparte na profilowaniu, lokalizacji lub przeszłych zachowaniach przestępczych); systemy rozpoznawania emocji w egzekwowaniu prawa, zarządzaniu granicami, miejscach pracy i w instytucjach edukacyjnych; pobieranie danych biometrycznych z mediów społecznościowych, bądź nagrań z kamer przemysłowych do stworzenia bazy danych do rozpoznawania twarzy (co jak stwierdzono - narusza prawa człowieka i prawa do prywatności).

Z kolei do „listy wysokiego ryzyka” dodano również systemy sztucznej inteligencji do wpływania na wyborców w kampaniach politycznych oraz systemy rekomendacyjne, wykorzystywane przez platformy mediów społecznościowych.

Modele, takie jak GPT musiałyby spełniać dodatkowe wymogi dotyczące przejrzystości, takie jak ujawnianie, że treść została wygenerowana przez sztuczną inteligencję, projektowanie modelu w celu zapobiegania generowaniu nielegalnych treści i publikowania podsumowań danych, które są chronione prawem autorskim, a które są wykorzystywane do szkolenia.

Europosłowie zaproponowali, aby przepisami nie była objęta działalność badawcza i komponenty sztucznej inteligencji, które są dostarczane na podstawie licencji open source. Dodatkowo ma im zależeć na tym, by zwiększyć prawo obywateli do składania skarg w zakresie decyzji podejmowanych w oparciu o systemy AI oraz by mogli oni otrzymywać wyjaśnienia takich decyzji.

Czytaj też

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Haertle: Każdego da się zhakować

Materiał sponsorowany

Komentarze

    Reklama