Reklama

Polityka i prawo

Sytuacja kryzysowa wywołana przez AI. Standerski: nie chcemy przeregulowania

Akt o sztucznej inteligencji w Polsce
"Jeżeli w trakcie stosowania Aktu o sztucznej inteligencji zauważymy, że potrzebna jest dodatkowa interwencja legislacyjna, to na pewno ją podejmiemy" - mówi wiceminister Standerski. Ale czy to wystarczy?
Autor. @freepik / Freepik / obraz wygenerowany z użyciem AI

Przestrzegania AI Actu w Polsce będzie pilnować m.in. Komisja nadzoru nad sztuczną inteligencją. Ma odpowiadać na ryzyka związane z wdrażaniem AI do instytucji publicznych, np. w wypadku dyskryminującego systemu. Czy jednak Ministerstwo Cyfryzacji wystarczająco przygotowało się na sytuację kryzysową w tym kontekście? Zapytaliśmy o to dra Dariusza Standerskiego, wiceministra cyfryzacji.

Monika Blandyna Lewkowicz, CyberDefence24.pl: Na jakim etapie jest wdrażanie Aktu o sztucznej inteligencji?

Dr Dariusz Standerski, wiceminister cyfryzacji: W dniu wejścia w życie aktu o sztucznej inteligencji, czyli 1 sierpnia, wysłaliśmy wniosek o wpis ustawy wdrażającej akt o sztucznej inteligencji w Polsce do wykazu prac programowych rządu, a więc rozpoczęliśmy proces legislacyjny - pierwszego dnia wejścia w życie AI Act. Teraz czekamy na rozpatrzenie wpisu przez Zespół programowania prac rządu. Kiedy to się stanie, wpis znajdzie się w wykazie i każdy będzie mógł sprawdzić, jak wyglądają założenia tego wdrożenia.

Dariusz Standerski - wiceminister cyfryzacji
Wiceminister cyfryzacji Dariusz Standerski
Autor. @DStanderski / X

Czytaj też

Reklama

Komisja nadzoru nad AI. Zadania, skład, koszt

M.B.L.: A jak wyglądają?

D.S.: Przepisy wdrażają organy, które są przewidziane w Akcie o sztucznej inteligencji, czyli m.in. organ nadzoru rynku czy organ notyfikujący. W tym pierwszym przypadku zauważyliśmy już wiele miesięcy temu, po konsultacjach publicznych i dyskusjach, że potrzebujemy nowego organu, który będzie odpowiadał na potrzeby Aktu o sztucznej inteligencji i przyszłych aktów, które pojawią się w tym zakresie. Dlatego zaproponowaliśmy stworzenie Komisji nadzoru nad sztuczną inteligencją. Będzie to organ nadzoru rynku oraz punkt kontaktowy.

M.B.L.: Dlaczego Ministerstwo zdecydowało się stworzyć nowy organ?

D.S.: Kiedy dokładamy nowe zadania już istniejącym urzędom, czasem przestają one być efektywne. Na przykład Urząd Komunikacji Elektrycznej otrzymuje nowe zadania w zakresie Prawa autorskiego, a niedługo otrzyma nowe zadania w zakresie Aktu o usługach cyfrowych. To już bardzo szeroki zakres wraz dzisiejszymi zadaniami, dodatkowe zadania byłyby już trudne do pogodzenia z dotychczasowymi. 

Uważamy więc, że w zakresie sztucznej inteligencji łatwiejsze i efektywniejsze będzie stworzenie nowego organu. Nie będzie to urząd, jaki znamy z czasów przedinternetowych, czy „sprzed AI”. Z drugiej strony chcemy czerpać z dobrych praktyk, istniejących na przykład w Komisji Nadzoru Finansowego, która jest dla nas inspiracją.

M.B.L.: Jaki będzie skład Komisji nadzoru nad sztuczną inteligencją?

D.S.: Komisja będzie składać się z przedstawicielek i przedstawicieli najważniejszych urzędów związanych z kwestiami sztucznej inteligencji. Chcemy, aby znalazł się tam przedstawiciel ministra właściwego ds. informatyzacji, przedstawiciel UODO, przedstawiciel Rzecznika Praw Obywatelskich i Rzecznika Praw Dziecka. Chcemy, żeby w tym organie spotykały się różne perspektywy. Zależy nam, żeby liderzy urzędów, którzy znajdą się w komisji, byli powoływani w różny sposób i w różnym czasie.

M.B.L.: Ile osób według pana miałoby się znajdować w Komisji?

D.S.: To jest kwestia do szczegółowych uzgodnień. Uważam, że do takiej komisji nie powinno wchodzić wiele osób. Planujemy kilka, kilkanaście. Tak, żeby z jednej strony, zapewnić wielorakość perspektyw, a z drugiej, żeby ta komisja była elastyczna, decyzyjna i mogła skutecznie pracować. Jeśli w jednym miejscu jest za dużo ludzi, praca staje się trudna.

M.B.L.: Jakie mogą być koszty takiej komisji?

D.S.: Przeanalizowaliśmy koszty różnych podobnych urzędów w Unii Europejskiej. Na tym poziomie, na którym jesteśmy, dołączamy do grupy liderów w Unii Europejskiej, jeżeli chodzi o wdrażanie regulacji sztucznej inteligencji. Przed nami jest Hiszpania, która ma taki urząd, choć nie jest jeszcze tak rozwinięty, jak czasem słyszymy. Dwa miesiące temu miałem przyjemność poznać szefa hiszpańskiego urzędu ds. sztucznej inteligencji i wtedy był jeszcze jedynym pracownikiem tego organu.

To pokazuje, że jesteśmy już w grupie liderów, w związku z czym oszacowanie kosztów, biorąc za wzór innych, jest bardzo trudne. Wzięliśmy więc też po uwagę istniejące w Polsce urzędy oraz to, jakie zadania na początku byłyby wymagane. Na podstawie tych kilku strumieni analiz widzimy, że to Komisja może kosztować docelowo od 20 do 30 mln złotych rocznie, biorąc pod uwagę specyfikę zadań, które ten urząd będzie na siebie brał.

M.B.L.: Czy w Komisji będą zasiadać przedstawiciele firm komercyjnych?

D.S.: Nie wyobrażam sobie, żeby firmy prywatne wchodziły w skład Komisji. Jedyne, co możemy rozważać, to różne ciała doradcze, niemające wpływu na decyzyjność Komisji. One już istnieją - to Społeczny Zespół Ekspertów przy PUODO czy Grupa Robocza ds. Sztucznej Inteligencji (GRAI) przy Ministerstwie Cyfryzacji. Nie są to rozwiązania na poziomie ustawowym, więc nie będzie takich rozstrzygnięć w ustawie wdrażającej Akt o sztucznej inteligencji.

Czytaj też

Reklama

Rola zespołu PL/AI

M.B.L.: Istnieje też zespół PL/AI dla Polski z Mironem Mironiukiem na czele. Co zrobił do tej pory i jaka jest jego przyszłość?

D.S.: Zespół przekazał pierwsze sprawozdanie z działalności. Zadaliśmy do tego sprawozdania kilka pytań i teraz zespół opracowuje odpowiedzi. W tej grupie są osoby, które zgłosiły chęć przedstawienia swoich pomysłów Ministerstwu Cyfryzacji i to właśnie zrobiły. Grupa nie ma wpływu na proces legislacyjny, ani na tworzenie polityk rządowych, czym zajmuje się GRAI.

Wśród propozycji PL/AI zalazł się projekt dotyczący profilaktyki raka piersi czy projekt Centralnego Repozytorium Danych Medycznych. Zaprezentowano też między innymi pomysł powszechnej nauki programowania, wsparcia sądów, czy też stworzenia Polskiego Centrum Obliczeniowego. Widzimy, że zespół przygotował propozycje, które w większości są we właściwościach innych ministerstw, więc przekażemy też ten dorobek innym resortom.

Jeżeli chodzi o przyszłość PL/AI, jestem gorącym zwolennikiem, aby ta grupa się rozszerzała. Chciałbym, żeby po testowym, eksperymentalnym etapie więcej podmiotów mogło w niej uczestniczyć i do tego będę też przekonywał resztę kierownictwa ministerstwa.

Czytaj też

Reklama

Strategia wprowadzania AI do administracji

M.B.L.: Sztuczna inteligencja będzie wprowadzana w administracji publicznej. Czy istnieje spójna strategia dla wszystkich ministerstw i urzędów?

D.S.: Komitet Rady Ministrów ds. Cyfryzacji pracuje nad rekomendacjami wykorzystania narzędzi sztucznej inteligencji w administracji publicznej. W skład Komitetu Rady Ministrów ds. Cyfryzacji wchodzą wszystkie ministerstwa i wspólnie rozpoczęliśmy konsultację rekomendacji. Do kolejnego etapu chciałbym przejść we wrześniu.

Założeniem jest, aby każdy urzędnik, każda urzędniczka mieli rekomendacje objaśniające, co to znaczy sztuczna inteligencja godna zaufania, jakie istnieją modele, do czego można je wykorzystywać, co to znaczy halucynacja, czy że nie możemy brać za pewnik wszystkiego co nam wygeneruje AI. Taki zestaw rekomendacji zostanie przekazany po uzgodnieniach. Po drugie pracujemy nad nową Polityką sztucznej inteligencji.
Dariusz Standerski, wiceminister cyfryzacji

Czytaj też

Polityka AI

M.B.L.: Analizowałam sprawozdanie z pierwszej Polityki AI. Moją uwagę przykuł fakt, że jest tam mowa o „wydajnym i szybkim dostępie do danych” w instytucjach. Nie ma natomiast prawie nic na temat bezpieczeństwa.

D.S.: Sprawozdanie nigdy nie będzie lepsze niż dokument, do którego się on odnosi. We wszystkich ministerstwach jest powszechna opinia, że obowiązująca stara Polityka sztucznej inteligencji nie jest najbardziej konkretnym dokumentem na świecie. Została napisana w taki sposób, że każda jednostka mogła zinterpretować swoje działania jako jej wykonanie. Nie było bowiem określonych konkretnych wskaźników czy działań przypisanych do konkretnych podmiotów. W związku z czym można było uznać bardziej lub mniej precyzyjnie, że dane działanie było wykonaniem Polityki.

W nowej Polityce nie popełnimy już tego błędu - zostaną do niej wpisane konkretne wskaźniki i zadania. Kiedy Polityka ta zostanie przyjęta, to gwarantuję pani, że każde ministerstwo będzie jej świadome.

Czytaj też

AI w administracji publicznej - bezpieczeństwo

M.B.L.: W przypadku administracji publicznej, takiej jak ochrona zdrowia, urzędy skarbowe czy sądownictwo mówimy o wrażliwych danych obywateli. Dochodzi tu kwestia prawa do prywatności. Wszyscy wiemy, że kiedy AI dostanie do nich dostęp, przyśpieszy pracę urzędów i usług publicznych. Ale czy są jakieś zabezpieczenia, które sprawią, że nasze dane będą bezpieczne, a prawa uszanowane?

D.S.: Po to właśnie wdrażamy Akt o sztucznej inteligencji, aby zapewnić bezpieczeństwo danych. Jestem przekonany, że dzięki wdrożeniu AI Actu będziemy mogli rozwijać systemy sztucznej inteligencji w takich obszarach, jak wymiar sprawiedliwości, ochrona zdrowia, infrastruktura czy transport.

Trudno by było, żeby jednostki publiczne czy firmy brały na siebie odpowiedzialność za system, który nie jest przez nikogo notyfikowany czy certyfikowany. Gdzie żadna niezależna jednostka nie sprawdziła, czy model jest zgodny zaufania, czy wiadomo, gdzie są zbierane dane, na czym był trenowany model, jak dane są opracowywane, czy jest kontrola człowieka. Akt o sztucznej inteligencji wprowadza takie wymogi i dzięki temu, że będziemy mieli z jednej strony organ nadzoru rynku, a z drugiej strony organ notyfikujący.

Czytaj też

Certyfikat Polskiego Centrum Akredytacji

M.B.L.: Jak będzie on wyglądał?

D.S.: Chcemy, żeby został wpisany w istniejący system, czyli żeby to minister właściwy ds. informatyzacji powierzał Polskiemu Centrum Akredytacji wydawanie standardów do certyfikatów systemów sztucznej inteligencji.

Dany podmiot publiczny będzie miał możliwość wyboru systemu AI, który został sprawdzony i ma certyfikat zapewniający, że dane są zbierane w bezpiecznym miejscu; że jest nadzór człowieka nad tym jak pracuje algorytm; że system był trenowany na danych, które są znane i nie są to dane nieuporządkowane lub nie powodują skrzywienia modelu; że wiemy, jaki jest cały cykl życia systemu i wiemy, co w dalszej kolejności będzie się działo z danymi, którymi ten system będzie cały czas zasilany.

Wtedy ryzyko spada. Wezmą go na siebie jednostki notyfikujące, które są godne zaufania i które robią coś podobnego od dziesiątek lat - jak Polskie Centrum Akredytacji. A więc bezpieczeństwo danych będzie dużo większe właśnie dzięki wdrożeniu AI Actu.

M.B.L.: Na jakiej podstawie będą wydawane notyfikacje?

D.S.: Będą sprawdzane warunki dotyczące miejsca składowania danych i repozytorium danych, na których system był trenowany. Sprawdzone zostanie, czy jest regularny nadzór człowieka nad modelem oraz to, gdzie i w jaki sposób wykorzystywane są dane, którymi później w dalszym cyklu życia jest zasilany model.

Według projektu nadzór nad całym procesem będzie sprawowała Komisja Nadzoru nad Sztuczną Inteligencją, a organem notyfikującym będzie Polskie Centrum Akredytacji, tak jak jest dzisiaj, w wielu istniejących systemach.
dr Dariusz Standerski, wiceminister cyfryzacji

Czytaj też

Wrażliwe dane w systemach AI

M.B.L.: Sztuczna inteligencja będzie na co dzień miała dostęp do naszych wrażliwych danych, ale tak naprawdę do końca nie wiemy, jak działają algorytmy AI - firmy tego nie ujawniają. A więc czy w ogóle da się sprawdzić, na jakich danych trenowany był system i czy był to proces etyczny?

D.S.: To jest wymóg stawiany nie przez polski rząd, a przez Unię Europejską. Przykładowo, jeśli w Polsce ofertę złoży firma zagraniczna i np. organ notyfikujący w Niemczech, Holandii, Czechach, Belgii czy Portugalii zauważy niezgodność z przepisami, to Europejska Rada AI zostanie o tym poinformowana. Wtedy informacje na temat tej firmy będą widoczne w systemie już na poziomie unijnym. A więc koordynacja między krajami Unii Europejskiej bardzo zwiększa precyzyjność nadzoru.

M.B.L.: Na temat wdrożenia AI Actu w Polsce wypowiedziała się Fundacja Panoptykon, która podkreśla, że Ministerstwo powinno wziąć pod uwagę ryzyka związane z rozwiązaniem sztucznej inteligencji w kontekście praw człowieka. Fundacja zaleca analizę, jakie cele chce osiągnąć Ministerstwo i czy konieczne jest używanie właśnie do tych celów narzędzi sztucznej inteligencji. Czy taka analiza została przeprowadzona?

D.S.: Panoptykon na pewno ucieszy się z rekomendacji wykorzystania AI w administracji publicznej, jak również ze sposobu wdrożenia AI Actu. Zapewniam o dalszym rozwoju idei sztucznej inteligencji godnej zaufania, która jest nam bliska. Ministerstwo zajmuje się oceną ryzyk i głębszą analizą przede wszystkim na potrzeby tworzenia Strategii cyfryzacji, nad którą w tej chwili pracujemy. Polityka AI również będzie ważnym elementem tego ekosystemu strategicznego, więc analiza będzie spójna z całym naszym planowaniem.

Czytaj też

Ryzyka związane z wdrożeniem AI Actu

M.B.L.: Jakie ryzyka widzi pan w zakresie wdrażania Aktu o sztucznej inteligencji?

D.S.: Oddzieliłbym kwestię samego wdrożenia na poziomie legislacyjnym od późniejszego wykonywania tych przepisów. Przede wszystkim rozpoznałbym ryzyka finansowe i infrastrukturalne, ponieważ sztuczna inteligencja potrzebuje znacznych zasobów infrastrukturalnych.

Budujemy Krajowe Centrum Przetwarzania Danych, prowadzimy kwerendę naszych wszystkich zasobów, jeżeli chodzi o przetwarzanie danych i moce obliczeniowe. Nie jesteśmy w stanie w całości przewidzieć rozwoju sztucznej inteligencji w najbliższych latach, więc istnieje ryzyko, że te zasoby są za małe.

Prawdopodobnie będziemy musieli budować więcej ośrodków, a od podjęcia decyzji o budowaniu do otwarcia budynku mija sporo czasu. I to jest ryzyko, którego nie jesteśmy w stanie szybko zaadresować. A od informacji do obsłużenia ryzyka też mija sporo czasu. Więc to jest pierwsze duże wyzwanie związane z wdrożeniem sztucznej inteligencji, a także wdrożeniem AI Actu.
dr Dariusz Standerski, wiceminister cyfryzacji

Jest jeszcze jedno ryzyko, a w zasadzie wyzwanie. Wiele obecnych instytucji prawnych nie kształtowało się w otoczeniu AI i innych technologii przełomowych, w związku z czym będziemy musieli stawić czoła dostosowaniu ich do tego. Przykładowo, kiedy ogłaszałem wyniki konsultacji w zakresie Komisji Nadzoru nad Sztuczną Inteligencją, dzień wcześniej jedna z amerykańskich firm ogłosiła nową funkcjonalność swojego systemu AI, która była już na tym poziomie potencjalnie niezgodna z przepisami europejskiego AI Actu.

Ten przykład pokazuje, że od momentu złożenia projektu w Sejmie do momentu podpisania projektu wdrażającego przez prezydenta, z pewnością powstanie jakaś nowa funkcja, nowe warunki, na które trzeba będzie odpowiedzieć już przez nową Komisję, a nie będzie na to szczegółowych podstaw prawnych.

Dlatego wyzwaniem będzie stworzenie na tyle elastycznych przepisów, żeby Komisja nadzoru na ich podstawie mogła działać, odpowiadać na nowe wyzwania, jakie będą przed nią stawiane. Dodatkowo, jestem absolutnie przekonany, że w perspektywie następnych 10 lat będziemy mieli nowe akty prawne odpowiadające na wyzwania, których jeszcze nawet nie znamy.

Komisja nadzoru nad sztuczną inteligencją musi być przygotowana na nowe zadania, nowe kompetencje, tak, żeby je przyjąć w sposób, który nie doprowadzi do rozrośnięcia i do spadku efektywności tej instytucji.
dr Dariusz Standerski, wiceminister cyfryzacji

Chciałbym podkreślić, że Komisja będzie zupełnie innym organem, niż na przykład Najwyższa Izba Kontroli, czy sądy, które mają swoje solidne podstawy instytucjonalne, zbudowane co najmniej kilkadziesiąt lat temu. Te podstawy nie zmieniają się. Sądy dostają nowe zadania, a inne są coraz mniej wykonywane, ale podstawa jest stabilna. W przypadku Komisji nadzoru nad sztuczną inteligencją, ze względu na kierunek rozwoju zupełnie nieprzewidywalny, nie sądzę, żeby te podstawy trwały tak samo solidnie.

Czytaj też

Sztuczna inteligencja zagrożeniem dla praw człowieka

M.B.L.: Także Amnesty International oceniło w raporcie, że sztuczna inteligencja jest zagrożeniem dla praw człowieka. Organizacja opisała przykład Serbii, gdzie narzędzie AI zostało wprowadzone do opieki zdrowotnej i spowodowało, że tysiące osób straciło możliwość korzystania z niezbędnych świadczeń. Sytuacja dotknęła zwłaszcza Romów i osoby z niepełnosprawnościami. Jest dowiedzione, że sztuczna inteligencja dyskryminuje, co jest nazywane biasem. Nie sądzi pan, że złamanie praw człowieka w związku z AI w administracji, to realne zagrożenie?

D.S.: To są wyzwania, z którymi będzie się mierzyć Komisja nadzoru nad sztuczną inteligencją. Wytyczne ze strony Europejskiego Aktu Sztucznej Inteligencji są jasne. Ustawa nie będzie ich powielać, bo prawo unijne w tym zakresie stosuje się bezpośrednio. W związku z tym będzie to już kwestia samodzielnych decyzji Komisji.

Chcę, żeby ta Komisja była niezależna. Jako polityk nie chcę wpływać na to, w jaki sposób będzie wykonywać swoje ustawowe zadania. Więc nie chcę dzisiaj mówić, że na przykład Komisja powinna wykonać ten czy inny test na to, czy system dyskryminuje. Do ekspertów i ekspertek tej Komisji będzie należało, w jaki sposób wykonać wymagania Aktu o sztucznej inteligencji, które mówią o tym, że systemy, zwłaszcza wysokiego ryzyka, nie mogą być dyskryminujące. I oczywiście widzę w tym ogromne wyzwania, ale uważam, że im mniej polityków, a więcej ekspertów w tym obszarze, tym lepiej.

Czytaj też

Sytuacja kryzysowa związana z AI w administracji

M.B.L.: Czyli Ministerstwo Cyfryzacji nie jest przygotowane na sytuację kryzysową, jaka miała miejsce np. w Serbii?

D.S.: Największa różnica między Polską a Serbią jest taka, że Serbia nie jest w Unii Europejskiej. Nie obowiązuje tam i nie będzie obowiązywać Akt o sztucznej inteligencji. W Polsce jesteśmy w innej sytuacji. Gdy zbudujemy wszystkie instytucje wymagane w AI Act, będziemy minimalizować ryzyko takich zdarzeń. Oczywiście to ryzyko nigdy nie jest zerowe. Tak samo jak dzisiaj, mimo przepisów ruchu drogowego nie ma zerowego ryzyka wypadku na autostradzie. To jest jasne i musimy brać to pod uwagę.

Dlatego też proponujemy system kar finansowych za naruszenie przepisów rozporządzenia. Będziemy współpracować z wymiarem sprawiedliwości i dostosowywać istniejące przepisy postępowania karnego, aby umożliwić w takich sprawach postępowania przed sądami; aby wyciągać konsekwencje z czynów, o których pani mówi, a które będą za kilka miesięcy w katalogu systemów zakazanych.

Po roku, czyli w lipcu 2025, będzie obowiązywał także system kar za stosowanie systemów zakazanych. A więc będziemy mieli podwójne zabezpieczenie – po pierwsze w postaci kodeksu karnego. Jeśli ktoś będzie chciał niezgodnie z prawem korzystać z AI, podlega odpowiedzialności karnej. Po drugie będziemy mieli zabezpieczenie w postaci Aktu o sztucznej inteligencji, które umożliwi nakładanie kar pieniężnych na takie podmioty. Więc będzie połączenie odpowiedzialności karnej i odpowiedzialności finansowej.

Czytaj też

Scenariusz: tysiące osób poszkodowanych

M.B.L.: Może się zdarzyć, że w organizacji wystąpi błąd ludzki. Czyli sytuacja kryzysowa nie będzie złą wolą. Oczywiście możemy ukarać konkretne osoby za złamania prawa, ale jakaś część obywateli w danym momencie będzie poszkodowana. Czy nie powinna powstać strategia, jak działać w takich sytuacjach?

D.S.: Musimy pamiętać, że nie wszystko powinniśmy regulować specjalnie dla sztucznej inteligencji. AI jest przełomem technologicznym i wymaga nowych instytucji, ale nie wymaga zupełnie nowego systemu prawnego.

Jeżeli zostanie podjęta decyzja administracyjna, która np. kogoś dyskryminuje, to ta osoba może odwołać się od tej decyzji i sprawa zostanie rozpatrzona przez sąd. W przypadku decyzji podejmowanej przy wsparciu sztucznej inteligencji obowiązuje ten sam kodeks postępowania administracyjnego i te same przepisy o postępowaniu przed sądami administracyjnymi.

My wdrożeniem aktu sztucznej inteligencji chcemy dodać element AI do istniejącego systemu prawnego, ale nie chcemy go całkowicie zmieniać. Decyzje administracyjne będą traktowane tak samo, jak były traktowane przed wejściem w życie Aktu sztucznej inteligencji, tak samo jak umowy i pozostały obrót społeczno-gospodarczy.

M.B.L.: Rozumiem, ale nie mówimy tutaj o jeden poszkodowanej osobie, która może wytoczyć proces, gdy uzna, że jej prawa zostały złamane. Moje pytanie brzmi - jak pomóc doraźnie tysiącom osób, które np. w danym momencie nie mają dostępu do ważnej usługi lub ich pieniądze znikną z ich konta z powodu błędu systemu AI w banku? Skutki takiego błędu mogą dotknąć wiele osób na raz.

D.S.: Jak przy kredytach frankowych - mechanizmy są podobne. Dlatego też nie chcemy dążyć do przeregulowania systemu, mając istniejące instytucje prawne. Jeżeli w trakcie stosowania Aktu o sztucznej inteligencji zauważymy, że potrzebna jest dodatkowa interwencja legislacyjna, to na pewno ją podejmiemy. Ale nie chcemy a priori zmieniać kodeksu cywilnego czy kodeksu postępowania administracyjnego.

Czyli sądzi pan, że strategia działania w sytuacji kryzysowej w ogóle nie powinna być przeprowadzona? Dodam, że taka sytuacja może dotyczyć bezpieczeństwa narodowego, jeżeli do wrażliwych danych zyska dostęp obcy wywiad, np. rosyjski.

D.S.: Ponownie odpowiadam, sztuczna inteligencja nie zmienia wszystkich zasad gry. Dzisiaj już istniejące systemy mogą spowodować szkody o których pani mówi, czy być podstawą dla danych wywiadowczych i takie same zagrożenia będą istnieć po wdrożeniu systemów sztucznej inteligencji. Różnica może być w zakresie skali i wtedy na tę skalę będziemy odpowiadać. Jednak najpierw musimy zrobić ocenę skutków regulacji ex post, żeby odpowiedzialnie podejmować decyzje w tym zakresie.

Czytaj też

Fundusz ds. sztucznej inteligencji

M.B.L.: Zmieniając temat, ile powinien wynosić Fundusz ds. sztucznej Inteligencji, aby zaspokoił realne potrzeby rynkowe?

D.S.: Rozmawiamy o tym na poziomie rządowym - przed kreowaniem następnego budżetu. A więc przed wskazaniem kolejnych limitów budżetowych nie będę wymieniał żadnej konkretnej kwoty. Natomiast to, na co chcę wskazać, to kwestia konieczności właściwego zaprojektowania Funduszu. Nie może on być jednym wielkim basenem pieniędzy, z którego są wyciągane kolejne środki. Powinien mieć konkretne strumienie zaprojektowane pod rzeczywiste potrzeby, co będzie bardziej efektywne.

Proponujemy, żeby Fundusz nie był instytucją jednolitą, tylko żeby był konglomeratem różnych form wsparcia i żeby miał też funkcję koordynującą. W polskim rządzie mamy kilka miejsc, z których finansowana jest sztuczna inteligencja.
dr Dariusz Standerski, wiceminister cyfryzacji

Potrzebujemy więc koordynacji tych wydatków. Powinno się to spiąć w kilku strumieniach. Pierwszy strumień dotyczy strategii biznesowych. Chcemy, żeby polskie firmy i polskie jednostki administracji publicznej korzystały z AI. Ale najpierw muszą wiedzieć, w jaki sposób to robić i do czego AI jest potrzebne; czym różni AI godna zaufania od niezbyt wiarygodnej. Chcemy więc wspierać finansowo tworzenie strategii wdrożenia AI w podmiotach. Musimy przygotować cały ekosystem na wdrożenia. Inaczej zostaniemy z chatbotem na stronie internetowej każdej firmy w Polsce. A tu nie o to chodzi.

Drugi strumień dotyczy wdrożeń, czyli finansowania konkretnych rozwiązań wprowadzanych przez fantastyczne polskie start-upy, fundacje i inne podmioty. Trzeci strumień powinien dotyczyć powiązania badań i wdrożeń, np. badań nad sztuczną inteligencją godną zaufania. Czyli połącznia kwestii etycznych i prawnych. Tak, aby w przyszłości Komisja nadzoru nad sztuczną inteligencją miała materiał do sprawnego procedowania.

Konieczny jest także strumień talentów AI, ażeby te talenty wspierać. Zarówno, jeżeli chodzi o programy edukacyjne, bootcampy oraz wsparcie najlepszych. Ważne jest, żebyśmy z jednej strony zapewnili stronę podażową. Czyli, żeby firmy, podmioty publiczne chciały i mogły korzystać z AI. A z drugiej strony, stronę popytową - żebyśmy mieli więcej talentów AI, które zostają w Polsce. I które mogą tutaj rozwinąć się na tyle, żeby rosnącej liczbie firm i podmiotów oferować swoje rozwiązania.

Zależy nam na współpracy z kilku stron, m.in. z instytucjami publicznymi, które już teraz wspierają AI i mają dużo doświadczeń - dobrych i złych. Z tego chcemy czerpać, aby nie powtórzyć błędów.

Czytaj też

Data wdrożenia aktu o sztucznej inteligencji

M.B.L.: Na koniec chciałabym zapytać, jaka jest realna data, w której Akt o sztucznej inteligencji zostanie wdrożony w Polsce?

D.S.: Ważną datą jest dla nas 12 lipca 2025 roku, kiedy duża część Aktu o sztucznej inteligencji zacznie być stosowana. Jest to data trochę niefortunna, bo wprowadzenie nowych instytucji akurat 12. dnia miesiąca jest czymś niecodziennym w polskim systemie prawnym, zwłaszcza, że to będzie sobota. A więc jest to dla nas data ważna, ale nie krytyczna. Chciałbym, żeby Polska była przygotowana w okolicach rozpoczęcia stosowania AI Actu. Jesteśmy teraz w czołówce krajów UE, ale nie chcę, żeby Polska wdrożyła Akt o sztucznej inteligencji jako pierwsza. Chcę, żeby zrobiła to dobrze i to jest nasz główny cel.

M.B.L.: Dziękuję za rozmowę.

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na:[email protected].

Reklama

Komentarze

    Reklama