Prywatność
Igrzyska olimpijskie pod nadzorem. Czy Francja zezwoli na masową inwigilację?
Igrzyska olimpijskie w Paryżu w 2024 r. mogą otworzyć drogę do wprowadzenia we Francji masowej inwigilacji z wykorzystaniem technologii inteligentnego monitoringu wizyjnego – alarmują aktywiści działający na rzecz prywatności.
Politycy zasiadający we francuskim Zgromadzeniu Narodowym w ogromnej większości opowiedzieli się za wprowadzeniem nowych regulacji, które według krytyków otwierają drzwi do masowej inwigilacji wizyjnej we Francji, a także w innych krajach Europy, tworząc niebezpieczny precedens.
Regulacje mają służyć zabezpieczeniu igrzysk olimpijskich, które w Paryżu mają odbyć się już w przyszłym roku. Systemy, które mają być wykorzystywane do ochrony imprezy, to tzw. inteligentne narzędzia nadzoru wykorzystujące algorytmy sztucznej inteligencji do oznaczania potencjalnych zagrożeń, takich jak np. porzucone podejrzane bagaże lub niepokojące zachowania w tłumie. Ostateczna decyzja o tym, czy coś stanowi zagrożenie czy nie, ma jednak należeć do operatora narzędzia, którym zawsze jest człowiek – pisze agencja Associated Press .
Rozpoznawanie twarzy w akcji?
Władze Francji argumentują, że w systemach, które mają być wykorzystywane podczas igrzysk nie znajdą się narzędzia służące do rozpoznawania twarzy. To właśnie ta technologia budzi najwięcej obaw w środowiskach zajmujących się obroną praw obywatelskich i praw człowieka.
Więcej o zagrożeniach związanych z technologiami i narzędziami rozpoznawania twarzy można przeczytać na łamach CyberDefence24.pl w tym tekście . Warto przy tym wspomnieć, że to właśnie z tego rodzaju narzędzi korzystają władze Chin w działaniach prowadzących do licznych naruszeń praw człowieka wobec mniejszości muzułmańskich Ujgurów .
Według Francuzów, rozpoznawanie twarzy nie będzie wykorzystywane podczas igrzysk , a zwolennicy nowych regulacji zezwalających na zwiększenie nadzoru elektronicznego wobec obywateli w czasie imprezy wskazują, że dzięki nim możliwe będzie zapobieganie naprawdę drastycznym wypadkom, takim jak np. panika podczas obchodów Halloween w Korei Południowej, w wyniku której w październiku ub. roku zginęło 160 osób bawiących się w tłumie.
Szacunek do prywatności kontra bezpieczeństwo
Minister spraw wewnętrznych Republiki Gerald Darmanin argumentuje, że wdrożenie nowych technologii monitoringu wizyjnego nie łączy się wcale z chęcią rozpoznawania konkretnych osób w tłumie, ale z zamiarem monitorowania ogólnej sytuacji w kontekście dużego zagęszczenia ludności podczas igrzysk.
Krytycy regulacji wskazują jednak, że Francja narusza w ten sposób międzynarodowe regulacje praw człowieka i staje się pierwszym krajem w Unii Europejskiej, który legalizuje w ten sposób wykorzystanie sztucznej inteligencji do inwigilacji obywateli. Nie ma przy tym znaczenia, że regulacje mają obowiązywać tylko przez czas trwania imprezy – zdaniem aktywistów działających na rzecz prywatności, igrzyska mogą być testem, który pozwoli na sprawdzenie tego, jak technologia działa, a francuskie władze stwierdzą później, że skoro sprawdza się dobrze, należy z niej korzystać również i w innych przypadkach. W ten sposób nadzór w przestrzeni publicznej jest normalizowany i zaostrzany.
Organizacja Amnesty International wskazuje, że wykorzystanie technologii monitoringu wizyjnego opartego o sztuczną inteligencję stwarza ryzyko, iż Francja „zamieni się na stałe w dystopię i państwo inwigilacyjne" oraz doprowadzi do „całościowego zamachu na prawo do prywatności, protestów, wolności zgromadzeń i wyrażania się".
O tym, jak technologie monitoringu wizyjnego mogą być wykorzystywane przez reżimy polityczne do walki z aktywnością obywatelską, w tym – z opozycją – można poczytać na łamach naszego serwisu na przykładzie Iranu .
Ostateczne głosowanie nad nowymi regulacjami we Francji zaplanowano na kwiecień.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].