Polityka i prawo
AI Act coraz bliżej. UE uzgadnia kolejne szczegóły
Unijni politycy osiągnęli konsensus w sprawie kolejnych szczegółów dotyczących Aktu o sztucznej inteligencji. AI Act to pakietowa regulacja, która w maju została przyjęta przez Parlament Europejski i na którą czekają zarówno branża, jak i użytkownicy.
Akt o sztucznej inteligencji (AI Act) - to pakietowa regulacja, która została w maju przyjęta przez Parlament Europejski, negocjacje nad nią natomiast trwały dwa lata. Jej celem jest kompleksowe uregulowanie branży sztucznej inteligencji i usług, które działają w oparciu o tę technologię. Głównym punktem wyjścia w tworzeniu ram prawnych w AI Act jest analiza ryzyka stwarzanego przez systemy sztucznej inteligencji - i to właśnie na jego ocenie opiera się podejście regulatorów. Więcej o tym, jak działa Akt o sztucznej inteligencji i jakie są jego założenia, pisaliśmy na naszych łamach w tej analizie. Tu z kolei można przeczytać o lobbingu ze strony firm - w tym, spółki Open AI Samuela Altmana - który doprowadził do osłabienia zapisów chroniących użytkowników.
Twarde negocjacje
Według źródeł agencji Reutera, we wtorek w Brukseli uzgodniono kolejne kluczowe zapisy AI Actu, przez co znów znaleźliśmy się o krok bliżej do końca prac nad nowymi regulacjami.
Dotyczą one w szczególności Artykułu 6, który do tej pory powodował zatory negocjacyjne. Źródła agencji nie chcą jednak podać szczegółów dotyczących ustaleń, deklarują także, że pragną zachować anonimowość - negocjacje dotyczące poszczególnych zapisów w AI Act są bowiem tajne.
Co reguluje Artykuł 6? To jeden z kluczowych zapisów całego Aktu o sztucznej inteligencji, bo to właśnie on odpowiada za wskazanie systemów sztucznej inteligencji, definiowanych jako systemy wysokiego ryzyka, czyli te, które podlegać będą najostrzejszym obostrzeniom i które stworzą nowe obowiązki dla ich dostawców.
Przypomnijmy - systemy wysokiego ryzyka to m.in.:
- systemy identyfikacji biometrycznej;
- systemy odpowiedzialne za zarządzanie i funkcjonowanie infrastruktury krytycznej;
- systemy wykorzystywane w edukacji i szkoleniu zawodowym, a także te, które odpowiadają za rekrutację np. do szkół;
- systemy do zarządzania i zatrudniania zasobów ludzkich;
- systemy wspomagające zarządzaniem dostępem do usług publicznych i prywatnych, jak np. te, które oceniają zdolność kredytową bądź decydują o rozmieszczeniu służb ratunkowych;
- systemy związane z egzekwowaniem prawa, które mogą np. pomagać oceniać ryzyko popełnienia przestępstwa przez daną osobę, oceniać jej stan emocjonalny, a także wykrywać deep fakes i wspomagać ocenę wartości dowodów w śledztwie;
- systemy decydujące o przyznawaniu azylu, zarządzaniu granicami i migracją;
- systemy działające w wymiarze sprawiedliwości i wykorzystywane do wspomagania procesów demokratycznych, takich jak np. wybory.
Wysokie ryzyko - czyli jakie?
Reuters przypomina, że debata na temat Artykułu 6 to w pracach nad AI Act jeden z najgorętszych punktów. Języczkiem u wagi jest kwestia wyjątków - czy i jakie powinny być systemy, które będą wyjęte spod restrykcyjnych przepisów? W negocjacjach pojawiła się przez to figura systemów „czysto pomocniczych”, które mają być wykorzystywane do wykonywania mniej istotnych, pomniejszych zadań, a rezultaty ich pracy nigdy nie będą miały znaczenia większego, niż decyzje podejmowane przez człowieka. Kwestie, w których pojawia się pojęcie systemów „czysto pomocniczych”, to np. zarządzanie obiegiem dokumentów lub tłumaczenie tekstów z języków obcych.
Według źródeł Reutersa, porozumienie dotyczące ostatecznego kształtu Aktu o sztucznej inteligencji może zostać osiągnięte podczas piątego trilogu w początku grudnia. Unijni urzędnicy twierdzą, że w negocjacjach poczyniono postęp - agencja zauważa jednak, że jeśli porozumienie nie zostanie osiągnięte, faza trilogów może przeciągnąć się na przyszły rok - a to byłoby niekorzystne również ze względu na specyfikę działania UE - w czerwcu zaplanowane są wybory do Parlamentu Europejskiego.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na:*[email protected].*
Haertle: Każdego da się zhakować
Materiał sponsorowany