Reklama
  • WIADOMOŚCI
  • WAŻNE

Regulacja AI – nadzór i kontrola czy wytyczne sektorowe? Polski i włoski model implementacji AI Act

Przyjęty przez Radę Ministrów 31 marca projekt ustawy o systemach sztucznej inteligencji, którego podstawowym celem jest zapewnienie stosowania unijnego AI Act, dobrze pokazuje preferowany model regulacyjny. Zaproponowane przepisy wykraczają poza techniczną implementację prawa europejskiego i w praktyce rozstrzygają, czy osią polskiego systemu będzie kontrola i nadzór, czy też tworzenie przejrzystych ram stosowania AI w kluczowych obszarach życia publicznego.

AI sztuczna inteligencja
Przyjęta przez polski rząd ustawa dobrze pokazuje preferowany model regulacyjny AI.
Autor. CyberDefence24/Canva

Autorka: dr Karolina Grenda

Polski projekt ustawy wpisuje się w pierwsze z tych podejść. Jego filarem jest stworzenie systemu nadzoru nad sztuczną inteligencją, opartego na wyznaczeniu centralnego organu właściwego (Komisja Rozwoju i Bezpieczeństwa Sztucznej Inteligencji) oraz wyposażeniu go w kompetencje kontrolne i instrumenty sankcyjne. 

Uzupełnieniem tego modelu są rozwiązania, które mają charakter bardziej pragmatyczny niż klasycznie represyjny, takie jak mechanizm łagodzenia kar inspirowany konstrukcjami prawa konkurencji, możliwość uzyskiwania wiążących opinii przed wdrożeniem systemu czy też piaskownice regulacyjne

W efekcie powstaje model, który stara się łączyć ścisły reżim regulacyjny z budowaniem przewidywalności dla uczestników rynku.

Reklama

Podejście do uregulowania AI: Polska a Włochy

Szczególnie istotne z perspektywy dalszego rozwoju regulacji jest natomiast świadome ograniczenie zakresu tej ustawy do ogólnych ram systemowych

Projekt nie wchodzi bowiem na tym etapie w szczegółowe uregulowanie zasad stosowania AI w takich obszarach jak administracja publiczna, wymiar sprawiedliwości, ochrona zdrowia czy rynek pracy, pozostawiając te kwestie do odrębnych, przyszłych inicjatyw legislacyjnych. 

Tu wyraźnie zarysowuje się różnica z włoskim modelem regulacyjnym ukształtowanym na podstawie ustawy nr 132/2025, obowiązującej od kwietnia 2026 r. Przyjęto w niej bowiem podejście, w którym regulacja zastosowań sztucznej inteligencji w sektorach wrażliwych stanowi integralną część jednego aktu prawnego. 

Co więcej, obowiązujące we Włoszech przepisy w wielu przypadkach formułują konkretne standardy operacyjne. Wyraźnie widać to w art. 14 dotyczącym administracji publicznej. Ustawodawca nie poprzestaje na dopuszczeniu wykorzystania AI, lecz określa cel takiego działania – zwiększenie efektywności działania administracji, skrócenie czasu trwania procedur oraz poprawę jakości usług – jednocześnie nakładając obowiązek zapewnienia przejrzystości działania systemów oraz identyfikowalności ich użycia. 

Kluczowe znaczenie ma także ust. 2, który przesądza, że sztuczna inteligencja może mieć charakter wyłącznie instrumentalny i wspierający, a pełna odpowiedzialność za decyzje pozostaje po stronie człowieka

W połączeniu z obowiązkiem wdrażania środków organizacyjnych i szkoleniowych (ust. 3) tworzy to model podkreślający zasadę nadzoru człowieka i uwzględniający szczególną rolę administracji publicznej.

Autonomia władzy sądowniczej w erze AI

Podobnie skonstruowane są włoskie przepisy dotyczące wymiaru sprawiedliwości. 

Przepis art. 15 w sposób jednoznaczny i kategoryczny rozstrzyga, że wszelkie decyzje dotyczące interpretacji prawa, oceny faktów i dowodów oraz rozstrzygnięć pozostają wyłącznie w gestii sędziego. Sztuczna inteligencja może być wykorzystywana jedynie pomocniczo, przede wszystkim w obszarze organizacji pracy sądów i czynności administracyjnych. 

Jednocześnie ustawodawca wprowadza mechanizm kontrolowanego wdrażania technologii, uzależniając testowanie systemów od zgody Ministerstwa Sprawiedliwości oraz kładzie nacisk na systemowe podnoszenie kompetencji cyfrowych sędziów i personelu. 

W praktyce oznacza to, że włoskie prawo nie tylko chroni autonomię władzy sądowniczej, lecz również aktywnie przygotowuje ją na funkcjonowanie w środowisku wspieranym przez AI.

Reklama

Niezwykle ważna ochrona pracowników

Równie ciekawe są rozwiązania przyjęte w obszarze rynku pracy, gdzie art. 11 formułuje katalog zasad, które mają charakter zarówno ochronny, jak i organizacyjny

Wykorzystanie AI ma służyć poprawie warunków pracy i produktywności, jednak musi odbywać się w sposób przejrzysty, niedyskryminujący i nienaruszający godności pracownika, przy jednoczesnym obowiązku informacyjnym po stronie pracodawcy. Przepis ten wyraźnie wpisuje się więc w europejską kulturę ochrony pracownika, przenosząc ją na grunt nowych technologii. 

Dopełnieniem tego podejścia jest art. 12, powołujący Obserwatorium ds. wdrażania AI w świecie pracy. Jego zadaniem jest nie tylko monitorowanie wpływu technologii na rynek pracy, lecz również identyfikowanie sektorów najbardziej narażonych na transformację oraz wspieranie działań szkoleniowych. Włoski ustawodawca chce zatem analizować zmiany i móc adaptować polityki publiczne do okoliczności. 

AI nie zastąpi lekarzy

Szczególnie interesujące są włoskie regulacje dotyczące ochrony zdrowia, które dopuszczają wykorzystanie AI, jednocześnie precyzyjnie określając granice jej stosowania. 

Zgodnie z art. 7 włoskiej regulacji, sztuczna inteligencja ma zatem służyć poprawie profilaktyki, diagnostyki i leczenia, jednak wyraźnie zastrzeżono, że nie może prowadzić do dyskryminacyjnego ograniczania dostępu do świadczeń, a pacjent powinien być informowany o jej wykorzystaniu. Kluczowe znaczenie ma przy tym zasada, zgodnie z którą systemy AI mogą wspierać procesy medyczne, lecz nie przejmują decyzji diagnostycznych ani terapeutycznych, które pozostają wyłącznie w gestii osób wykonujących zawody medyczne. 

Uzupełnieniem są zawarte w art. 8 przepisy dotyczące badań i eksperymentów naukowych w zakresie tworzenia systemów AI w służbie zdrowia, gdzie otwarto możliwość wykorzystywania danych – także wrażliwych – do rozwoju systemów AI, ale pod warunkiem zachowania obowiązków informacyjnych, stosowania anonimizacji oraz utrzymania nadzoru organu ochrony danych. 

Wreszcie, na podstawie art. 10 tworzona jest krajowa platforma AI, która ma zapewnić wsparcie dla personelu medycznego oraz pacjentów, przy czym jej działanie opiera się na wyraźnie określonych zasadach zarządzania danymi, oceny ryzyka oraz współpracy z organami odpowiedzialnymi za ochronę danych i cyberbezpieczeństwo. 

Reklama

Polska i Włochy – dwa podejścia do AI

Zestawienie obu podejść prowadzi do wniosku, że Polska i Włochy odpowiadają na to samo wyzwanie w odmienny sposób. 

Polska buduje przede wszystkim architekturę nadzoru i egzekwowania prawa, zakładając, że szczegółowe regulacje sektorowe pojawią się w kolejnych etapach. Włochy natomiast równolegle definiują zasady stosowania AI w kluczowych obszarach, ograniczając w ten sposób niepewność regulacyjną na poziomie operacyjnym.

Warto przy tym podkreślić, że różnica między podejściem polskim a włoskim nie polega na tym, że jedno z państw reguluje więcej niż wynika to z AI Act. 

Unijne rozporządzenie koncentruje się bowiem na klasyfikacji systemów sztucznej inteligencji według poziomu ryzyka oraz na określeniu obowiązków związanych z ich projektowaniem i wdrażaniem. Nie rozstrzyga natomiast w sposób szczegółowy, jak systemy te powinny być wykorzystywane w konkretnych sektorach życia publicznego. W tym sensie regulacje krajowe pełnią rolę uzupełniającą. 

Włoska ustawa przekłada wymogi AI Act na poziom operacyjny, określając zasady wykorzystania sztucznej inteligencji w takich obszarach jak administracja publiczna. Polski projekt ustawy koncentruje się natomiast na warstwie nadzorczej, przenosząc doprecyzowanie zastosowań sektorowych na późniejszy, nieokreślony w czasie etap.

Z perspektywy praktyki wdrożeń różnica ta ma znaczenie fundamentalne. Brak precyzyjnych ram sektorowych oznacza bowiem, że wraz z przyjęciem ustawy nie zniknie główna bariera wdrożeniowa dla AI

W raporcie NASK „AI w e-administracji publicznej – perspektywa urzędników i instytucji”, opracowanym na podstawie badań w ponad 1300 urzędach w całym kraju, zidentyfikowano ją jako brak lub niejasność regulacji prawnych dotyczących wykorzystania sztucznej inteligencji w urzędach – tak stwierdziło 73% respondentów. 

Na tą samą okoliczność wskazują podczas licznych teraz konferencji i warsztatów związanych z AI niemal wszyscy przedstawiciele sektora publicznego. 

Czy Polska wybrała właściwą drogę?

Polski projekt ustawy stanowi niewątpliwie oczywiste następstwo regulacji przyjętych na poziomie unijnym. Jego rzeczywiste znaczenie rozstrzygnie się jednak nie na poziomie budowy systemu regulacyjno-nadzorczego, lecz umiejętności udzielenia przez ustawodawcę jasnej odpowiedzi o ramy prawne wdrażania AI w konkretnych sektorach i w konkretnych przypadkach. 

To właśnie zdolność do przełożenia ogólnych zasad AI Act na konkretne wytyczne operacyjne zdecyduje o tym, czy przyjęty model regulacyjny stanie się realnym wsparciem wdrożeń, czy pozostanie przede wszystkim systemem nadzoru nad technologią, która rozwija się szybciej niż regulacje

Także dlatego przyjęty we Włoszech model wprost adresujący sektorowe wyzwania związane z wdrażaniem AI, wydaje się potencjalnie ciekawym drogowskazem do dalszych prac legislacyjnych w naszym kraju.

Reklama
CyberDefence24.pl - Digital EU Ambassador

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Krajowy system e-Faktur - co musisz wiedzieć o KSEF?

YouTube cover video
Materiał sponsorowany