Polityka i prawo
Akt o sztucznej inteligencji. Przełomowe porozumienie
We wtorek doszło do przełomowego porozumienia w sprawie Aktu o sztucznej inteligencji (AI Act) - pierwszego tak kompleksowego prawa, które ma odpowiedzieć na rosnące wyzwania związane z systemami SI.
Akt o sztucznej inteligencji - AI Act - to unijne prawo, które 14 czerwca 2023 roku zostało przyjęte przez Parlament Europejski. Zadaniem aktu ma być stworzenie ram prawnych dla rozwijającej się branży sztucznej inteligencji.
We wtorek posłowie Parlamentu Europejskiego w Komisji Rynku Wewnętrznego (IMCO) i Komisji Wolności Obywatelskich (LIBE) zatwierdzili wstępne porozumienie w sprawie Aktu o sztucznej inteligencji. Zagłosowano stosunkiem głosów 71 do 8 (przy 7 głosach wstrzymujących) za zatwierdzeniem wyników negocjacji z państwami członkowskimi.
The #AIAct has been adopted in committee ✅
— Eva Maydell (Paunova) (@EvaMaydell) February 13, 2024
Next step: Final vote in plenary 🗳️
This is a result that we can be proud of: One that encourages social trust in #AI while still giving companies the space to create and innovate.
Proud of the result as @EP_Industry rapporteur. pic.twitter.com/86mDaDi3fM
Zakaz stosowania systemów punktacji społecznej
Jak podaje PE, zatwierdzone zostało na szczeblu komisji wstępne porozumienie ws. AI Act, które dotyczy: uzgodnienia zabezpieczenia dot. AI tzw. ogólnego przeznaczenia; ograniczenie stosowania systemów identyfikacji biometrycznej przez organy ścigania; zakazów dotyczących systemów punktacji społecznej i sztucznej inteligencji wykorzystywanej do manipulowania lub wykorzystywania luk w zabezpieczeniach użytkowników; prawa obywateli do składania skarg i uzyskiwania wyjaśnień.
„Rozporządzenie to ma na celu ochronę praw podstawowych, demokracji, praworządności i zrównoważonej ochrony przed sztuczną inteligencją wysokiego ryzyka. Jednocześnie ma ono na celu pobudzenie innowacji i ugruntowanie pozycji Europy jako lidera w dziedzinie sztucznej inteligencji. W przepisach nałożono obowiązki w odniesieniu do sztucznej inteligencji w oparciu o jej potencjalne ryzyko i poziom wpływu” - czytamy w oficjalnym komunikacie.
W kwietniu zaplanowano głosowanie nad formalnym przyjęciem regulacji na sesji plenarnej Parlamentu i ostateczne zatwierdzenie przez Radę. Dzisiejsze porozumienie komisji to dobry znak na drodze do przyjęcia unijnych regulacji.
Akt będzie w pełni stosowany 24 miesiące po wejściu w życie (poza wyjątkami - np. przepisy dotyczące sztucznej inteligencji ogólnego przeznaczenia, w tym zarządzania - będą musiały być stosowane 12 miesięcy po wejściu w życie).
Czytaj też
Akt o sztucznej inteligencji. Co się zmieni?
Jak wskazano, najważniejszymi elementami porozumienia są po pierwsze: zakaz niektórych zastosowań sztucznej inteligencji, które zagrażają prawom obywateli (chodzi np. o systemy kategoryzacji biometrycznej, które są oparte na cechach wrażliwych, pobieranie zdjęć twarzy z internetu lub nagrań z kamer na potrzeby baz danych rozpoznawania twarzy, stosowania systemów punktacji społecznej czy zakaz sztucznej inteligencji, która manipuluje ludzkim zachowaniem lub wykorzystuje słabości ludzi).
Stosowanie systemów identyfikacji biometrycznej przez organy ścigania zostało zabronione, z wyjątkiem sytuacji w czasie rzeczywistym, przy zachowaniu odpowiednich zabezpieczeń i za zgodą sądu lub administracyjną. Chodzi np. o możliwość stosowania systemów AI tylko i wyłącznie w przypadku poszukiwania zaginionej osoby lub by zapobiec atakowi terrorystycznemu.
Dodatkowo dotyczy to jasnych obowiązków w zakresie systemów tzw. wysokiego ryzyka, które mogą mieć znaczący wpływ na: zdrowie, bezpieczeństwo, prawa podstawowe, środowisko, demokrację i praworządność. Chodzi o zastosowanie np. w przypadku infrastruktury krytycznej, kształcenia i szkolenia zawodowego, zatrudnienia, migracji, wymiaru sprawiedliwości czy w systemie demokratycznym (np. wpływ na wybory). Obywatele będą mieć prawo do składania skarg dot. systemów AI i do otrzymania wyjaśnień dot. podejmowanych decyzji w oparciu o system SI wysokiego ryzyka, jeśli ma to wpływ na ich prawa.
Co więcej, systemy sztucznej inteligencji ogólnego przeznaczenia (GPAI) oraz modele, na których się opierają, muszą spełniać określone wymogi w zakresie przejrzystości i być zgodne z unijnym prawem autorskim podczas szkolenia.
Istotną z punktu widzenia użytkownika zmianą będzie także wymóg, by wygenerowane przy pomocy AI lub zmienione/zmanipulowane w ten sposób treści były wyraźne oznaczone. O zagrożeniach, jakie niosą deepfake’i pisaliśmy wielokrotnie. W kontekście wyborów to obecnie coraz większe wyzwanie.
„Tworzenie prawa zajmuje dużo czasu. Nadążanie przez prawodawcę za tym, co dzieje się na rynku technologicznym, jest sporym wyzwaniem. Nie wiem, czy w ogóle da się wygrać ten wyścig. Chyba nie” - mówiła w rozmowie z CyberDefence24, dr Maria Dymitruk, radczyni prawna, counsel w firmie doradczej Olesiński i Wspólnicy.
Czytaj też
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].