Polityka i prawo
UODO: Rozporządzenie SI utrzymuje normatywność rozwiązań w kontrze do spontanicznego rozwoju technologii
Unijne Rozporządzenie o Sztucznej Inteligencji mające uregulować funkcjonowanie tego sektora na terenie UE utrzymuje normatywność rozwiązań w kontrze do spontanicznego rozwoju technologii - ocenił podczas zorganizowanego przez Urząd Ochrony Danych Osobowych w poniedziałek webinaru zastępca Prezesa UODO minister Mirosław Sanek.
Sanek wskazał, że prace nad regulacjami sektora sztucznej inteligencji w UE toczą się od kilku lat. "O sztucznej inteligencji mówimy natomiast od lat kilkunastu" - zwrócił uwagę, podkreślając iż tempo prac regulacyjnych w tym przypadku jest bardzo szybkie.
Jego zdaniem unijne regulacje AI będą traktowane z pewnością jako hamulec rozwoju sektora, ale sprawdzą się. "Przykładem jest RODO, które doskonale się sprawdziło i jest obecnie kopiowane, np. przez Chiny" - powiedział Sanek. Jak dodał, regulacje AI wynikają z konieczności ochrony praw podstawowych w coraz szerszych zastosowaniach tej technologii.
Czy Rozporządzenie o SI jest potrzebne, gdy mamy RODO?
Prof. Grzegorz Sibiga związany z Polską Akademią Nauk i kancelarią Traple Konarski Podrecki & Wspólnicy podczas webinaru tłumaczył, że celem projektu Rozporządzenia SI nie jest ochrona danych osobowych sama w sobie; projektowane przepisy odwołują się jednak do RODO wówczas, gdy jest to konieczne.
"Twórcy (Rozporządzenia o SI - red.) przyjęli, że przepisy te nadal będą obowiązywały i będą znajdowały zastosowanie. Rozporządzenie o SI naśladuje RODO, gdy mowa o konstrukcji prawnej i szczegółowych kazuistycznych kwestiach" - zauważył Sibiga. Jak wskazał, proponowane regulacje jednak nie prezentują podejścia do ochrony praw podstawowych wyłącznie przez pryzmat danych osobowych.
Co o Rozporządzeniu mówią organy unijne?
Według Europejskiej Rady Ochrony Danych i Europejskiego Inspektoratu Ochrony Danych projekt Rozporządzenia powinien zawierać propozycję wprowadzenia regulacji zakazujących kategoryzacji biometrycznej osób fizycznych, tj. wykorzystywania sztucznej inteligencji do grupowania określonych osób ze względu np. na pochodzenie etniczne, płeć czy orientację seksualną lub polityczną.
Sibiga powiedział również, że według unijnych organów w projekcie Rozporządzenia, w wykazie tzw. systemów AI wysokiego ryzyka brakuje wyszczególnionych niektórych rodzajów przypadków użycia, które wiążą się ze znacznym ryzykiem, takich jak wykorzystywanie SI do określania np. wysokości składki ubezpieczeniowej, oceny terapii medycznych lub badań w dziedzinie zdrowia.
EROD i EIOD wskazują również zdaniem Sibigi, że organy nadzorcze powinny być również wyznaczane jako krajowe organy nadzorcze do celów nadzoru nad AI.
Chcemy być także bliżej Państwa – czytelników. Dlatego, jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected]. Przyszłość przynosi zmiany. Wprowadzamy je pod hasłem #CyberIsFuture.