Reklama

Social media

Regulacje prawne UE spowolnią rozwój SI w Europie, ale umożliwią jej kontrolę

fot.  Possessed Photography/ Unsplash/ Domena publiczna
fot. Possessed Photography/ Unsplash/ Domena publiczna

Europa nie ma szans, aby stać się w najbliższej przyszłości światowym liderem w wykorzystaniu sztucznej inteligencji. Nowe regulacje prawne UE z jednej strony nie przyczynią się do przyspieszenia rozwoju SI Europie, ale mają umożliwić jej kontrolowanie i spowodować, że technologia będzie działała na rzecz człowieka - mówią PAP naukowcy.

W drugim kwartale br. Komisja Europejska przedstawiła projekt rozporządzenia dotyczącego wykorzystania SI (Artificial Inteligence Act), zgodnie z którym nowe technologie byłyby tworzone i wykorzystywane zgodnie z wartościami, prawami podstawowymi i zasadami UE.

Prof. UŚ dr hab. Dariusz Szostek i dr Gabriela Bar z Instytutu Nauk Prawnych Uniwersytetu Śląskiego oraz Wirtualnej Katedry Etyki i Prawa opowiadają o możliwych zagrożeniach ze strony sztucznej inteligencji (SI) dla przeciętnego człowieka.

Polska Agencja Prasowa: Państwa członkowskie UE coraz częściej stosują sztuczną inteligencję, aby kontrolować granice - wskazał raport Biura Analiz Parlamentu Europejskiego (EPRS). Dzięki SI sprawdzane już są np. odciski palców, powstają inteligentne systemy, które coraz lepiej rozpoznają także twarze, a nawet emocje, czy objawy chorób. Czy czeka nas ciągła obserwacja przez komputery?

Prof. UŚ dr hab. Dariusz Szostek: Pod pojęciem sztucznej inteligencji kryje się mnóstwo różnych narzędzi i algorytmów. Europa nie ma jednak szans, aby stać się w najbliższej przyszłości światowym liderem w wykorzystaniu takich technologii. Wiodącą rolę odgrywają USA i Chiny. Potem są jeszcze inne kraje, m.in. Japonia, a dopiero później Europa. Powinniśmy rozwijać SI, nadganiać najlepszych, ale w chwili obecnej ich nie wyprzedzimy. Nie ma w tym nic złego. Europa nieco inaczej spogląda na rozwój algorytmów i w mojej opinii słusznie. Przede wszystkim dotychczas brak było kompleksowego nadzoru nad inteligentnymi algorytmami, a w zakresie ich działania w dużej mierze mieliśmy do czynienia z „wolną amerykanką”.

PAP: To nie brzmi optymistycznie.

D.S.: Dlatego Unia Europejska podjęła niedawno decyzję o tym, aby nadrzędne znaczenie miała jednak ochrona praw człowieka. Spowoduje to jeszcze spowolnienie rozwoju SI w Europie, ale za to umożliwi kontrolę nad jej działaniem oraz wskaże kryteria oraz kierunek jej rozwoju.

PAP: Na czym to będzie polegało?

Dr Gabriela Bar: Ograniczenia mogą mieć różną naturę, po pierwsze mają dotyczyć pewnych zastosowań SI - niektóre mają być całkowicie zakazane. Tutaj można wymienić systemy do tzw. social scoringu, czy używające technik podprogowych do wpływania na decyzje ludzi, szczególnie osób starszych, niepełnosprawnych czy dzieci. Inna grupa to zastosowania wysokiego ryzyka, które ograniczone byłyby specjalnymi wymogami dotyczącymi np. pochodzenia i jakości danych oraz dokumentacji technicznej i transparentności. Inteligentne systemy wysokiego ryzyka musiałyby także przechodzić proces oceny zgodności.

PAP: A rozpoznawanie twarzy czy emocji?

D.S.: Co do zasady skanowanie biometryczne w czasie rzeczywistym ma być zakazane, ale z pewnymi wyjątkami. Chodzi o uwzględnienie dobra człowieka. Jeśli na przykład poszukiwane będzie dziecko, stosowanie biometrii może zostać dopuszczone, ale za zgodą sądu lub innego upoważnionego organu. A więc także pod kontrolą.

PAP: Czy takie ograniczenia nie postawią Europy w gorszym położeniu względem innych krajów?

D.S.: Jako prawnik powiem: „to zależy….”. Wszystko zależy od kryteriów, a także od tego, jakie dobro jest dla nas Europejczyków najważniejsze. Jeśli chcemy bezwarunkowo rozwijać technologie i nie przejmować się prawami człowieka, to możemy zrobić to, co dzieje się obecnie w Chinach. Dokonując biometrycznego „spisania” obywateli i poddania ich inwigilacji, wprowadzając europejski odpowiednik systemu punktującego obywateli, na wzór China’s Social Credit System. Pamiętam, jak dwa lata temu na IGF ONZ w Berlinie delegat z Hong Kongu, wskazywał na problem inwigilacji manifestantów m.in. przez drony i na próby ich przechytrzenia, nie tylko poprzez zasłanianie twarzy i zmianę ubioru ale także sposobu poruszania się. Duże firmy IT lobbują oczywiście za pełnym uwolnieniem technologii i pełnej wolności w stosowaniu algorytmów. Moim zdaniem jesteśmy zobligowani jako Europejczycy do ograniczania takich zapędów, ale także zapędów rządów oraz służb, mających mocną tendencję dla działań mających na celu kontrolę bądź „tylko” inwigilację ludzi. Zawsze podnosząc argument, że to dla naszego bezpieczeństwa.

PAP: To przypomina scenariusz z jakiegoś filmu.

D.S.: Nie tylko filmu ale także literatury, np. „1984” Orwella. Dlatego cieszę się, że Komisja Europejska obrała odmienny cel niż rząd chiński. Cel, w którego centrum jest człowiek i prawa człowieka, a rozwój technologii ma działać na jego rzecz. To jest kwestia zasadnicza. Czy to człowiek w przyszłości będzie kontrolował algorytmy, czy też algorytmy człowieka.

PAP: Jednak zapewne będą jakieś furtki prawne. Wspomniał pan o okolicznościach, w których ryzykowne techniki mogą być stosowane. Czy więc nie jest realne, że np. w obliczu epidemii, za pomocą kamer na lotniskach czy na ulicach będzie obserwowany stan zdrowia ludzi, a przy innym zagrożeniu np. ich emocje?

D.S.: Realne jest teoretycznie wszystko. Gdyby przed dwoma laty ktoś nam opowiedział o świecie covidowym, powiedzielibyśmy, że się naoglądał Netflixa. Mam jednak nadzieję i do tego zmierza się w Unii Europejskiej, że takie systemy będą ograniczane.

PAP: No dobrze, ale trzeba przyznać, że z takich systemów mogą płynąć też niebagatelne korzyści. Ktoś mógłby argumentować, że automatyczna analiza zdrowia obywateli będzie pomagać w wygaszaniu ewentualnej epidemii.

D.S.: Istnieje jednak przeciwwaga w postaci naruszania różnego rodzaju dóbr, np. tajemnicy lekarskiej. Wszystko należy wyważyć. Należy rozwijać technologię, algorytmy, na rzecz dobra człowieka, ale pamiętać o ryzyku wadliwego ich użycia. To tak jak w świecie realnym z nożem. Jest cudownym narzędziem, pozwalającym m.in. na krojenie chleba, ale może też zostać wykorzystany w niecnym zamiarze.

PAP: Jakie jeszcze dobra mogą zostać naruszone.

D.S.: Na przykład prawo do ochrony wizerunku, prywatności i wiele innych. Nie chcę żyć w świecie, gdzie każdy mój ruch jest obserwowany - gdzie poszedłem, jakie zrobiłem zakupy, z kim się spotkałem itd.

PAP: W dużej mierze na pewno już jesteśmy obserwowani.

D.S.: Nawet sobie nie zdajemy zwykle z tego sprawy. Wiele algorytmów działa w tle: w serwisach internetowych, aplikacjach telefonów komórkowych, latają nad nami drony itd.

PAP: Do tego dochodzi jeszcze problem ewentualnego wycieku danych.

D.S.: Dotykamy tu już sfery cyberbezpieczeństwa. To osobne zagadnienie. Natomiast chciałbym zwrócić uwagę na inną kwestię. Otóż sztuczna inteligencja potrafi nie tylko zbierać dane, ale także je analizować i w ten sposób nawet tworzyć precyzyjne profile poszczególnych osób, często nawet na podstawie szczątkowych informacji. Nasze wpisy w portalach społecznościowych, lajki, kliknięcia - to już wystarczająca pożywka dla utworzenia przez algorytm naszego profilu. Na przykład, poprzez obserwację w sieci, algorytm może stworzyć mój profil jako osoby „rozrzutnej” na tej podstawie a instytucja finansowa odmówić kredytu.

PAP: Jakie inne zagrożenia płyną z tworzenia takich profili?

G.B.: Przede wszystkim może dojść do dyskryminacji części społeczeństwa. Np. na podstawie tego, jak korzystam z usług elektronicznych, AI może ustalić, że jestem kobietą, w konkretnym wieku, że np. jestem lesbijką, a moje przekonania polityczne są lewicowe. Z tego powodu mogę mieć trudności z zatrudnieniem lub mniej zarabiać, płacić wyższą składkę ubezpieczeniową, nie dostać kredytu albo uzyskać go na gorszych warunkach. Teoretycznie może nawet dojść do ograniczania dostępu do niektórych usług, także publicznych - jeśli np. polityka rządu będzie taka, że nie wspiera osób homoseksualnych, a wręcz je dyskryminuje.

PAP: Jednak pobawię trochę w adwokata diabła. Taki profil może być wyjątkowo przydatny. Na przykład dzięki niemu można by dobrać odpowiednie leczenie dla danej osoby. Może np. warto inaczej podejść do pacjenta, który pali, przesiaduje przed telewizorem, źle się odżywia i nie wysypia, niż do takiego, który regularnie ćwiczy, dba o dietę i w ogóle o zdrowie.

D.S.: Raczej obawiam się, że gdy algorytm ustali, że się mało ruszam, ciągle oglądam telewizję i palę, to mogę kiedyś dostać wyższe koszty korzystania z opieki zdrowotnej czy brak do niej dostępu. Bo tak zadecyduje AI.

G.B.: Kluczowe jest, abyśmy sami decydowali o wykorzystaniu naszych danych. Mogę się zgodzić, aby np. metoda leczenia była dobrana na podstawie danych o różnych aspektach mojego życia, ale jeśli te dane będą wykorzystane wyłącznie w tym celu, przez określony podmiot medyczny lub lekarza. Ale nie chciałabym, aby te informacje dostały się np. w ręce firmy ubezpieczeniowej, która by na ich podstawie określiła dla mnie składkę.

PAP: Można to jakoś sprawnie rozwiązać?

D.S.: Tak, Unia Europejska zamierza przywrócić dane ludziom. Powstał już projekt zmian do rozporządzenia eIDAS ( tzw. eIDAS2), w ramach którego obywatel europejski będzie posiadał portfel z informacjami na swój temat, a także różnymi dokumentami, np. prawem jazdy, czy choćby kartą wędkarską. To właściciel będzie decydował kiedy i komu udostępnić odpowiednie dane. Co więcej odpowiednie algorytmy będą pilnowały, aby odbiorca, np. pracodawca mógł korzystać z informacji tylko w określonym czasie. Ważne jest to, że rozporządzenie z tym kompleksowym rozwiązaniem ma działać na poziomie unijnym. Nie chciałbym np. być chroniony w Polsce czy Czechach, a być inwigilowanym np. przez Francuzów czy polską firmę za pośrednictwem maltańskiego podmiotu.

G.B.: Opracowywane są też inne regulacje w podobnym duchu. Na przykład Digital Services Act to projekt rozporządzenia, w którym najprawdopodobniej zostaną wprowadzone wymogi odnośnie reklam. Propozycja regulacji obejmuje obowiązek zapewnienia przez platformy internetowe, aby Internauci byli w stanie w sposób jasny i jednoznaczny oraz w czasie rzeczywistym ustalić, że wyświetlone informacje są reklamą, kto za tą reklamą stoi i dlaczego właśnie danej osobie taka reklama została pokazana. Nie trzeba nikogo przekonywać, że otrzymujemy reklamy na podstawie tego, jak korzystamy z Internetu, ale tak naprawdę nie wiemy, jak działają algorytmy decydujące o tym, jaką reklamę zobaczymy.

PAP: Co na to wszystko biznes?

D.S.: Na dłuższą metę biznesowi także będzie się to opłacało. W Polsce na długi czas trochę zapomnieliśmy o etyce w biznesie i mieliśmy tutaj dziki kapitalizm. Na zachodzie jest inaczej, tam się kładzie duży nacisk na etykę. Słusznie, bo jeśli firma traci zaufanie klienta, to traci także jego.

G.B.: Dobrym przykładem, jak biznes może zareagować na nowe regulacje jest RODO. Sporo było krytyki przed jego wejściem w życie ze strony technologicznych gigantów i „straszenia” zamknięciem ich działalności w Europie. Tymczasem nic takiego się nie stało i wszyscy co do zasady dostosowali się do wymogów UE w zakresie ochrony danych osobowych.

PAP: Może razem z technologią powinna też zmienić się mentalność ludzi.

G.B.: Ważną rolę może tutaj odegrać edukacja. Istotne jest m.in. powstawanie nowych, interdyscyplinarnych studiów. Potrzebujemy dzisiaj osób myślących szeroko, którzy będą posiadali wiedzę z zakresu nie tylko prawa, ale także np. z informatyki i etyki. Tacy ludzie trafią z czasem także do biznesu.

PAP: A póki co czekamy na europejskie regulacje?

D.S.: Najwcześniej wejdą one w życie za 3,5 roku. Prace idą wolno, jak to w Unii, ale za to metodycznie i kompleksowo. To nas bardzo cieszy. Teraz jest czas na dyskusję o nich, odpowiednie przygotowanie się i wdrożenie. Nie zmarnujmy tego okresu.


Chcemy być także bliżej Państwa – czytelników. Dlatego, jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected]. Przyszłość przynosi zmiany. Wprowadzamy je pod hasłem #CyberIsFuture. 

image
Fot. Reklama

Źródło:PAP
Reklama
Reklama

Komentarze