Polityka i prawo
#CyberMagazyn: Akt o AI w Polsce. Eksperci radzą, jak uniknąć zagrożeń
Wdrożenie aktu o sztucznej inteligencji do polskiego systemu prawnego nie jest prostym procesem. Co powinien wziąć pod uwagę rząd, aby prawo zapewniało bezpieczeństwo, było przejrzyste i skuteczne? Jak sprawić, aby polscy przedsiębiorcy chętniej eksperymentowali z nowymi rozwiązaniami AI, co zwiększy innowacyjność, a tym samym wartość naszego rynku? Na ten temat rozmawialiśmy z przedstawicielami kancelarii KWKR Konieczny Wierzbicki i Partnerzy S.K.A – adw. Bartoszem Łabęckim oraz r. pr. Łukaszem Wieczorkiem.
Monika Blandyna Lewkowicz: Co to właściwie znaczy, że Akt o sztucznej inteligencji będzie wdrożony do polskiego systemu prawnego?
Adwokat Bartosz Łabęcki, associate w kancelarii KWKR Konieczny Wierzbicki i Partnerzy S.K.A.: Akt o sztucznej inteligencji (AI Act) jest rozporządzeniem Unii Europejskiej, co oznacza, że będzie on obowiązywać bezpośrednio w polskim porządku prawnym.
„Wdrożenie” w tym kontekście oznacza przede wszystkim dostosowanie krajowych procedur i systemów prawa, aby zapewnić zgodność z wymogami rozporządzenia, w tym doprecyzowanie odpowiednich mechanizmów nadzoru oraz kontroli.
Ponadto, niezbędne będzie rozpowszechnienie wiedzy o nowych regulacjach wśród wszystkich zainteresowanych stron, co pomoże w płynnym przejściu do nowego systemu regulacji AI.
Akt o sztucznej inteligencji - prekonsultacje
W ramach adaptacji AI Act do polskiego systemu prawnego Ministerstwo Cyfryzacji przeprowadziło prekonsultacje. Na czym one polegały?
Adw. Bartosz Łabęcki: Miały na celu określenie optymalnego modelu regulacyjnego dla sztucznej inteligencji w Polsce. Rozważane kwestie obejmują m. in. potrzebę powołania nowego organu do nadzoru nad rynkiem AI i organu notyfikującego lub przypisanie tych obowiązków istniejącym już instytucjom, jak również identyfikację kluczowych grup interesariuszy, które wymagają szczególnego uwzględnienia w działaniach edukacyjnych i komunikacyjnych. Inicjatywa ma przyczynić się do przemyślanego środowiska regulacyjnego wspierającego rozwój technologiczny oraz bezpieczeństwo użytkowników.
Czytaj też
Analizy techniczne, prawne i społeczne
W jaki sposób powinno przebiegać to wdrożenie?
Wprowadzenie Aktu o sztucznej inteligencji do polskiego systemu prawnego powinno być procesem przemyślanym. Aby zapewnić, że wdrożenie AI Actu w Polsce przebiegnie sprawnie i skutecznie niezbędne będzie przeprowadzenie szeregu analiz technicznych, prawnych i społecznych, które pozwolą ocenić potencjalne skutki regulacji na różne aspekty życia gospodarczego i społecznego.
Wymaga to również szeroko zakrojonych konsultacji społecznych, angażujących wszystkie kluczowe grupy interesów, w tym sektor prywatny, akademicki, organizacje pozarządowe oraz obywateli, co umożliwi zebranie różnorodnych perspektyw i identyfikacje potrzeb.
Czytaj też
Co należy wziąć pod uwagę w analizach?
Zważywszy na dynamiczny rozwój AI i potencjalnie dalekosiężne skutki zastosowania tej technologii, niezmiernie ważne jest, aby przeprowadzone analizy uwzględniały długofalowe konsekwencje. Przygotowanie odpowiedzialnej i przemyślanej strategii pozwoli nie tylko na uniknięcie potencjalnych zagrożeń, ale także na wykorzystanie możliwości, jakie sztuczna inteligencja może oferować.
Ryzyka przy wdrażaniu AI Act
Jakie ryzyka istnieją przy wdrażaniu unijnego prawa?
Radca prawny Łukasz Wieczorek, partner w kancelarii KWKR Konieczny Wierzbicki i Partnerzy S.K.A: Jeśli chodzi o wyzwania związane z wdrożeniem AI Actu, na pierwszy plan wysuwa się zgodność regulacyjna. AI Act nakłada daleko idące obowiązki na dostawców i użytkowników systemów AI, wymagając od nich przestrzegania szczegółowych zasad dotyczących przejrzystości, bezpieczeństwa i odpowiedzialności za te systemy. Polskie przedsiębiorstwa i organy publiczne muszą dostosować swoje operacje do nowych przepisów, co może wymagać znaczących zmian w systemach informatycznych i procedurach operacyjnych. Nieprzestrzeganie tych wymogów może skutkować wysokimi karami finansowymi.
Czytaj też
Co jeszcze powinien wziąć pod uwagę rząd?
R. pr. Łukasz Wieczorek: Wdrożenie aktu wymaga, aby polskie organy regulacyjne posiadały odpowiednie zasoby ludzkie, techniczne oraz finansowe do efektywnego monitorowania i egzekwowania przestrzegania przepisów. Brak tych zasobów może ograniczyć skuteczność nadzoru, a to z kolei może prowadzić do potencjalnego osłabienia zaufania do systemu regulacji AI w Polsce.
Jednym z kluczowych zagadnień w tym obszarze jest decyzja, czy polski prawodawca powinien utworzyć nowy, dedykowany organ nadzoru rynku AI, czy powierzyć te kompetencje już istniejącemu podmiotowi. Z jednej strony mamy argumenty dotyczące efektywności kosztowej i unikania nadmiernej biurokracji, które mogą przemawiać za wykorzystaniem istniejących struktur.
Z drugiej, ciągły rozwój AI i spodziewany wzrost skomplikowania krajobrazu regulacyjnego, wymagające odpowiedniej specjalizacji, która może być lepiej realizowana przez nowo utworzony organ.
Innym istotnym wyzwaniem jest zapewnienie, że wszystkie strony zaangażowane w rozwój, wdrażanie i eksploatację AI są odpowiednio poinformowane o obowiązujących regulacjach. Niewystarczająca wiedza na temat wymagań AI Act może prowadzić do nieświadomego naruszenia przepisów.
AI Act wprowadza wiele nowych pojęć i standardów, których interpretacja może być różna w różnych państwach członkowskich. To może prowadzić do niejednolitości w stosowaniu prawa, co utrudnia działalność firm na skalę międzynarodową.
Czytaj też
Jak państwo polskie może tym zagrożeniom zapobiec?
R. pr. Łukasz Wieczorek: Aby minimalizować te ryzyka, ważne jest, aby Polska zainwestowała w odpowiednie programy szkoleniowe, zasoby technologiczne i personel, a także w stałą współpracę między rządem, sektorem prywatnym i instytucjami edukacyjnymi w celu sprawnego wdrażania i przestrzegania przepisów AI Act.
Akt o sztucznej inteligencji a biznes
Jakie rozwiązania AI Act są ważne z punktu widzenia biznesu?
Adw. Bartosz Łabęcki, KWKR: Przedsiębiorstwa przede wszystkim potrzebują jasnych, stabilnych i przewidywalnych ram prawnych. To fundament, który pozwala firmom planować i inwestować w technologie AI z większą pewnością co do przyszłości. Dlatego ważne jest, aby prawodawca przeprowadził rewizję obecnych regulacji krajowych pod kątem ich zgodności z AI Act.
Czytaj też
Co jeszcze jest ważne?
Adw. Bartosz Łabęcki, KWKR: Kolejnym istotnym aspektem jest wsparcie dla innowacji w dziedzinie AI. Przykładem takich działań może być tzw. piaskownice regulacyjne. Piaskownice te mają umożliwić testowanie nowych technologii w kontrolowanym środowisku, bez pełnego obciążenia regulacyjnego, co sprzyja innowacjom.
Dzięki temu przedsiębiorstwa będą mogły eksperymentować z nowymi rozwiązaniami i modelami biznesowymi w AI, minimalizując ryzyko i koszty, zanim rozwiązania te zostaną wprowadzone na szeroki rynek. W założeniu nie tylko ma to przyspieszyć tempo rozwoju, ale również pozwolić na dostosowanie produktów do regulacji przed ich pełnym komercyjnym wdrożeniem.
Czytaj też
Komunikacja z przedsiębiorcami
Jak powinien przebiegać dialog między rządem a przedsiębiorcami?
Adw. Bartosz Łabęcki, KWKR: Inicjatywa w tym zakresie w dużej mierze powinna należeć do krajowych organów regulacyjnych ds. AI. Zgodnie z AI Act, mają one bowiem za zadanie udzielać wytycznych i porad dotyczących wdrażania rozporządzenia, co może być kluczowe szczególnie dla małych dostawców i nowych graczy na rynku, którzy mogą nie mieć zasobów, aby samodzielnie zgłębiać złożoność regulacji. Edukacja i informacja są niezbędne do zapewnienia, aby wszystkie podmioty, niezależnie od ich wielkości i zasobów, mogły dostosować się do nowych wymogów prawnych i efektywnie konkurować na rynku.
Podsumowując, dla biznesu kluczowe jest, aby wdrożenie AI Act zapewniło równowagę między ochroną a promocją innowacji, stworzyło warunki sprzyjające inwestycjom w AI oraz umożliwiło efektywną współpracę między sektorem publicznym a przedsiębiorstwami. Tylko wtedy możemy mówić o prawdziwie sprzyjającym rozwojowi ekosystemie dla sztucznej inteligencji.
Dziękuję za rozmowę.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].