Reklama

Polityka i prawo

Sztuczna inteligencja w resortach. Brak jednej, spójnej strategii

W jaki sposób resorty stosują sztuczną inteligencję w codziennej pracy?
W jaki sposób resorty stosują sztuczną inteligencję w codziennej pracy?
Autor. KPRM - CIR/ oficjalne konto X/ Zdjęcie wygenerowane przez Canva AI/ Modyfikacja: CyberDefence24

Każdy z resortów ma inne podejście do wykorzystania sztucznej inteligencji w pracy urzędników – tak można krótko podsumować obecną strategię rządu w tym zakresie, a raczej jej brak. Z kolei resort cyfryzacji ma dopiero planować publikację zaleceń dotyczących używania AI, z uwzględnieniem pracy urzędowej.

Akt o sztucznej inteligencji (AI Act), czyli regulacje, które są najważniejszymi na terenie Unii Europejskiej, jeśli chodzi o zasady trenowania i wykorzystania modeli AI czy dotyczące tzw. zakazanych systemów, weszły w życie 1 sierpnia br.

Polska jest na etapie przygotowań do wdrożenia tego Aktu - w kwietniu br. ogłoszono pierwsze konsultacje w tej sprawie, w których uzyskano stanowiska branży dot. kierunków, jakie powinno się obrać, proponując legislację dostosowaną do polskich realiów.

Natomiast w rozmowie z naszym serwisem dr Dariusz Standerski, wiceminister cyfryzacji wskazywał: „W dniu wejścia w życie Aktu o sztucznej inteligencji, czyli 1 sierpnia, wysłaliśmy wniosek o wpis ustawy wdrażającej akt o sztucznej inteligencji w Polsce do wykazu prac programowych rządu, a więc rozpoczęliśmy proces legislacyjny - pierwszego dnia wejścia w życie AI Act. Teraz czekamy na rozpatrzenie wpisu przez Zespół programowania prac rządu. Kiedy to się stanie, wpis znajdzie się w wykazie i każdy będzie mógł sprawdzić, jak wyglądają założenia tego wdrożenia” - mówił nam.

Czytaj też

Reklama

Sztuczna inteligencja w resortach. Czy istnieje katalog zasad?

Akt o sztucznej inteligencji to jedno, inną kwestią są możliwe zalecenia czy rekomendacje dotyczące stosowania modeli sztucznej inteligencji w miejscu pracy. Niektórzy pracodawcy już dawno - wraz z rosnącą popularnością ChatuGPT - zdecydowali się takowe wprowadzić. Szczególnie wrażliwą kwestią pozostaje bowiem ryzyko wprowadzenia danych firmowych (jak i zresztą prywatnych) do modelu AI i na to powinno się uczulać każdego.

Postanowiliśmy sprawdzić, jak wygląda stosowanie modeli sztucznej inteligencji (zarówno takich, jak np. ChatGPT, jak i autorskich, jeśli takie istnieją) przez polski rząd. Zapytaliśmy wszystkie resorty o to, czy są używane w codziennej pracy urzędników; jeśli tak to jakie oraz czy istnieją zasady ich stosowania. Kluczowym pytaniem pozostaje to, z jakich systemów można korzystać i do analizy jakich danych.

Przypomnijmy, że zaledwie w ubiegłym tygodniu informowaliśmy o sprawie wykorzystania danych użytkowników serwisu X przez Elona Muska do trenowania jego modelu AI o nazwie Grok. Okazało się, że była ta opcja ustawiona domyślnie - bez zgody i wiedzy korzystających z platformy.

Sprawą zainteresował się w Polsce Prezes Urzędu Ochrony Danych Osobowych Mirosław Wróblewski, który w rozmowie z nami przyznał, że:UODO zbada tę sprawę, aby zapewnić pełną zgodność działań z obowiązującymi przepisami”.

Czytaj też

Reklama

Sztuczna inteligencja w resortach. Różnice w podejściu

Jak zatem poszczególne resorty podchodzą do wykorzystania modeli sztucznej inteligencji do w codziennej pracy?

W Ministerstwie Rozwoju i Technologii nie wykorzystuje się służbowych narzędzi opartych o technologie AI. Jak się dowiedzieliśmy, jednocześnie resort nie zakazuje pracownikom dostępu do publicznie dostępnych narzędzi typu AI.

Z kolei pracownicy Ministerstwa Nauki i Szkolnictwa Wyższego nie korzystają z takich narzędzi, podobnie jak Ministerstwa Spraw Zagranicznych.

Ministerstwo Kultury i Dziedzictwa Narodowego odpowiedziało nam, że nie używa narzędzi AI w wewnętrznych systemach teleinformatycznych. „Natomiast dostęp online do narzędzi AI, takich jak np. ChatGPT, nie jest blokowany i pracownicy MKiDN mogą z nich korzystać przy założeniu niewprowadzania danych wrażliwych” – usłyszeliśmy.

Reklama

Sprawa wygląda nieco inaczej w Ministerstwie Rolnictwa i Rozwoju Wsi. Resort wprost przyznaje CyberDefence24, że pracownicy korzystają z narzędzi AI, które wspierają działania m.in. w przygotowywaniu tekstów oraz produkcji i edycji materiałów audio.

Korzystamy zarówno z narzędzi oferowanych przez zewnętrznych dostawców, jak i rozwijamy własne rozwiązania, dostosowane do potrzeb naszego ministerstwa. Narzędzia AI stanowią przede wszystkim bazę wiedzy, umożliwiając pracownikom szybki dostęp do informacji oraz wsparcie w codziennych czynnościach. ChatGPT jest często wykorzystywany do przygotowywania i poprawiania tekstów. Narzędzia AI dostarczają również inspiracji i nowych pomysłów, co jest przydatne w procesach kreatywnych i planowaniu projektów. Aplikacje takie jak Capcut wspierają nasze działania w produkcji i edycji materiałów audio i wideo – przyznaje resort. MRiRW nie analizuje danych za pomocą AI – zaznaczono.

Podobne podejście, choć nie identyczne ma Ministerstwo Sprawiedliwości, w którym korzysta się z narzędzi AI, takich jak Descript oraz ChatGPT. Wykorzystywane mają być głównie w Biurze Komunikacji i Promocji.

„Ich zastosowanie jest raczej bardziej marketingowe, niż prawnicze. Narzędzia Descript używamy do tworzenia transkrypcji treści wideo, co pozwala nam zaoszczędzić czas. Drugim, i zarazem ostatnim, narzędziem z którego korzystamy jest ChatGPT od OpenAI. Jego zastosowanie to głównie redakcja tekstu oraz opracowanie analiz niewrażliwych, ogólnodostępnych danych” – odpowiada nam Ministerstwo Sprawiedliwości.

Analiza ma obejmować wyniki profili w social mediach; zaangażowania, zasięgów oraz AVE w mediach tradycyjnych i danych statystycznych na potrzeby scenariuszy wideo.

Natomiast Ministerstwo Spraw Wewnętrznych i Administracji nie określa sprawy jasno: „Ze względu na specyfikę zadań realizowanych przez MSWiA, związanych z bezpieczeństwem państwa, nie przekazujemy informacji na temat używanych przez nas narzędzi teleinformatycznych. Niemniej jednak zapewniamy, że jesteśmy na bieżąco z wiedzą w zakresie narzędzi AI, także w kwestiach wymaganych przez AI Act w ramach art. 5, czyli praktyk zakazanych” – podkreśla resort spraw wewnętrznych i administracji.

Ministerstwo Klimatu i Środowiska zwraca z kolei uwagę na inny fakt: „Do czasu wytworzenia polskich modeli językowych, opartych na odpowiedzialnej, etycznej, bezpiecznej i godnej zaufania AI oraz wejścia w życie ustawy, która pozwoli na pełne stosowanie AI Act w Polsce, a także do czasu wypracowania nowej polskiej strategii AI, Departament Informatyzacji nie udostępnia pracownikom Ministerstwa Klimatu i Środowiska własnych narzędzi opartych o sztuczną inteligencję. Departament Informatyzacji nie blokuje jednak możliwości korzystania z aplikacji opartych o AI, np. w systemie Microsoft 365” – podkreślono w udzielonej nam odpowiedzi.

Departament Informatyzacji i Cyberbezpieczeństwa w MAP

Jeszcze inne podejście do sprawy ma Ministerstwo Aktywów Państwowych, które chwali się, że w resorcie od 1 lipca 2024 r. istnieje specjalnie powołany Departament Informatyzacji i Cyberbezpieczeństwa. Jego zadania dotyczą m.in. informatyzacji ministerstwa, cyberbezpieczeństwa oraz dostarczania usług informatycznych wspierających procesy w MAP.

„W celu zwiększenia efektywności, pracownicy Ministerstwa Aktywów Państwowych korzystają z darmowych rozwiązań z zakresu sztucznej inteligencji, powszechnie dostępnych na rynku. W świetle obowiązujących regulacji w obszarze ochrony informacji poufnych oraz danych osobowych, w szczególności przepisów rozporządzenia Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz ustawy z dnia 5 sierpnia 2010 r. o ochronie informacji niejawnych (Dz.U. z 2024 r. poz. 632), pracownicy urzędu zostali poinformowani o kluczowych zagrożeniach i istniejących zasadach bezpieczeństwa, aby chronić integralność i poufność danych Ministerstwa. Ponadto, mając na względzie wzrastającą rolę i wykorzystanie narzędzi klasy AI, pracownicy urzędu korzystają ze szkoleń podnoszących ich kompetencje w tym obszarze” – zwraca uwagę Departament Komunikacji w MAP.

MON korzysta ze sztucznej inteligencji

Na szczególną uwagę zasługuje podejście do sztucznej inteligencji w resorcie obrony narodowej, który jak wiele razy informowaliśmy, także stawia na rozwój AI. Jako pierwsi podaliśmy, że Wojsko Polskie tworzy nową jednostkę - Centrum Implementacji Sztucznej Inteligencji (CISI), która będzie podlegać pod dowódcę DKWOC, którym obecnie jest gen. dyw. Karol Molenda. Jego działalność będzie finansowana z budżetu Ministerstwa Obrony Narodowej, a wśród kadr znajdą się specjaliści wojskowi i cywilni.

Czytaj też

Trzeba jednak pamiętać, że MON musi szczególnie troszczyć się o ochronę danych i minimalizację ryzyka ich naruszenia. Jak wobec tego wojsko podchodzi do stosowania modeli AI? Ppłk Przemysław Lipczyński, rzecznik prasowy polskich cyberwojsk informuje nas, że narzędzia oparte na sztucznej inteligencji są wykorzystywane przez Siły Zbrojne RP w bieżącej oraz operacyjnej działalności.

„Aktualne zastosowanie obejmuje szereg rozwiązań komercyjnych, otwartoźródłowych oraz opracowanych lub odpowiednio dostosowanych przez inżynierów z Wojsk Obrony Cyberprzestrzeni. Służą one do analizy danych multimedialnych, sensorycznych oraz tekstowych” – przekazał nam.

Obecnie mają być wykorzystywane jako elementy wspomagające, automatyzujące i zwiększające efektywność realizowanych procesów. „W spektrum zastosowania narzędzi wykorzystujących sztuczną inteligencję znajdują się między innymi: analiza danych z sensorów, przetwarzanie i analiza języka naturalnego, cyberbezpieczeństwo i inżynieria oprogramowania” – komentuje rzecznik Dowództwa Komponentu Wojsk Obrony Cyberprzestrzeni.

Brak jednej strategii i "kodeksu dobrych praktyk"

Już na pierwszy rzut oka widać, że podejście każdego z resortów jest inne – nie ma jednej, spójnej strategii, ani nawet „kodeksu dobrych praktyk”, który określałby, jak w prawidłowy sposób korzystać z AI.

O sprawę zapytaliśmy też Ministerstwo Cyfryzacji, które powinno być autorem tego typu rekomendacji czy też zaleceń.

Monika Dębkowska z Biura Komunikacji resortu odpowiedziała nam, że aktualnie MC planuje publikację zaleceń odnośnie „wykorzystania technologii generatywnej sztucznej inteligencji w miejscu pracy, ze szczególnym uwzględnieniem pracy urzędowej”.

„Dokument będzie skierowany do osób pracujących w urzędach, aby zwiększyć ich świadomość w zakresie tego, czym jest generatywna sztuczna inteligencja oraz jakie zagrożenia oraz korzyści wiążą się z jej wykorzystaniem w pracy” – dowiedzieliśmy się.

Chciałoby się napisać: lepiej późno niż później.

Na 19 resortów, odpowiedzi na pytania nie udzieliło nam: Ministerstwo Edukacji Narodowej; Ministerstwo Finansów; Ministerstwo Funduszy i Polityki Regionalnej; Ministerstwo Infrastruktury; Ministerstwo Przemysłu; Ministerstwo Rodziny, Pracy i Polityki Społecznej; Ministerstwo Sportu i Turystyk.

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Komentarze

    Reklama