- WIADOMOŚCI
Etyka a sztuczna inteligencja. W którym miejscu jest polska legislacja?
Bez odpowiedniej kultury życia publicznego prawo może być mało skuteczne – stwierdził prof. Paweł Łuków podczas sejmowej Podkomisji ds. sztucznej inteligencji i przejrzystości algorytmów. Poniedziałkowe wyjazdowe posiedzenie na Uniwersytecie Warszawskim było poświęcone kwestiom etycznym w wykorzystaniu narzędzi opartych na AI. Obecny na nim wiceminister cyfryzacji Dariusz Standerski wskazał, że konieczne jest znalezienie równowagi między rozwojem i bezpieczeństwem.
Autor. CyberDefence24/Canva
Za rozwojem sztucznej inteligencji posuwają się zmiany prawne mające uregulować korzystanie z narzędzi wykorzystujących nową technologię. Na łamach naszego portalu regularnie informujemy o postępach prac nad projektem ustawy o systemach sztucznej inteligencji – po wielomiesięcznym przestoju związanym z międzyresortowym sporem o organ nadzoru, w końcówce marca dokument został przyjęty przez rząd.
Zobacz też

Regulacje nie są narzędziami
Korzystanie z narzędzi AI dotyka nie tylko kwestii prawnych. W poniedziałek na Uniwersytecie Warszawskim odbyło się wyjazdowe posiedzenie sejmowej Podkomisji ds. sztucznej inteligencji i przejrzystości algorytmów, poświęcone zagadnieniom związanym z kwestiami etycznymi w tym zakresie.
Jak powiedział podczas spotkania prof. Paweł Łuków, istnieje wyobrażenie jakoby etyka istniała dlatego, że prawo nie wystarczy. Tymczasem bez odpowiedniej kultury życia publicznego skuteczność prawa może być niewielka, zaś najważniejsze wartości społeczeństwa reguluje konsensus zawarty w Konstytucji. W ten sposób pojawia się pytanie dotyczące traktowania regulacji prawnych oraz miejsca, jakie w nich powinna zajmować etyka.
„Ramy prawne to środowisko do tego, abyśmy mogli funkcjonować i załatwiać swoje sprawy, nie narzędzie do trzymania w dyscyplinie. Dlatego ważne jest, abyśmy byli w stanie regulować swoje sprawy, zachowania w sposób zgodny ze standardami w obszarze technologii” – zaznaczył prof. Łuków, zwracając uwagę, że dobrze skonstruowane standardy etyczne mogą być instrumentem zapobiegania nieprawidłowościom.
Standerski: musimy znaleźć równowagę
Obecny na posiedzeniu wiceminister cyfryzacji Dariusz Standerski stwierdził z kolei, że sztuczna inteligencja jest narzędziem, które nie powinno wpływać na podstawy etyczne, prawa karnego czy cywilnego.
Z drugiej strony w niektórych miejscach jest za dużo regulacji i za mało dyskusji – zwłaszcza w przypadku unijnej legislacji.
„W mojej ocenie mamy jasny cel: znaleźć równowagę między rozwojem i bezpieczeństwem. Powinniśmy znaleźć równowagę, w której kolejne narzędzia sztucznej inteligencji będą rozwijały się w sposób swobodny, a jednocześnie korzystanie z nich będzie bezpieczne i nie będzie powodowało szkody dla kogokolwiek. Globalnie nie znaleźliśmy tej równowagi” – podkreślił Standerski.
Wiceszef resortu cyfryzacji wskazał przy tym, że na najbliższym posiedzeniu Sejmu będzie procedowany projekt ustawy o systemach sztucznej inteligencji. Z kolei w Brukseli ku końcowi mają się prace nad poprawkami do unijnego aktu o sztucznej inteligencji. Jednym z rozwiązań wdrożonych w kraju mają być piaskownice regulacyjne.
Powinniśmy dążyć do miejsca, w którym testujemy, sprawdzamy, szukamy, mylimy się, budujemy rozwiązania, że po testowaniu i przy wsparciu Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji, wchodząc już na rynek będziemy mieli pewność, że te narzędzia będą wykorzystywane dla dobra nas wszystkich. Chcemy stworzyć takie chcemy stworzyć takie środowisko, w którym przedsiębiorcy, instytucje publiczne, instytucje naukowe nie będą się bały wdrażać rozwiązań sztucznej inteligencji i będą miały pewność prawa.
Dariusz Standerski, wiceminister cyfryzacji
Podczas dyskusji głos zabrał dyrektor NASK Radosław Nielek. Zwrócił uwagę na fakt, że w mediach społecznościowych już dokonuje się rewolucja, w wyniku której duża część interakcji w tym medium odbywa się między botami. Według jego słów, w ten sposób tworzy się świat „coraz dalszy od ludzi”.
„Ma to wiele różnych konsekwencji. Platformy żyją w zasadzie wyłącznie z reklam wyświetlanych obok tych postów. Czy ktoś będzie chciał płacić za treści, które są wyświetlane przy wygenerowanej przez AI zawartości i konsumowane przez inne boty? To jest pytanie, na które będą musieli odpowiedzieć nie tylko zlecający reklamy, ale też media społecznościowe” – powiedział szef Instytutu.



Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].
Krajowy system e-Faktur - co musisz wiedzieć o KSEF?
Materiał sponsorowany