Reklama

Prywatność

Jeśli AI, to tylko z poszanowaniem prywatności. Tak mówią Francuzi

Autor. Sanket Mishra / Unsplash

Szybki rozwój sztucznej inteligencji i pojawienie się algorytmów generatywnych skłoniły Francję do stworzenia planu działania i wytycznych w odniesieniu do prywatności użytkowników tego rodzaju systemów. Co zakładają zalecenia?

Reklama

W opublikowanych niedawno planach działania w odniesieniu do szybkiego rozwoju sztucznej inteligencji, francuski organ ochrony danych osobowych - CNIL - deklaruje, że pojawienie się nowoczesnych technologii w takim stopniu zaawansowania nie jest dla niego zaskoczeniem.

Reklama

Dlaczego? Przede wszystkim ze względu na to, że - jak twierdzi urząd - rozwój AI był do przewidzenia, dlatego prace nad wytycznymi i stosownym podejściem do kwestii prawnych w zakresie ochrony prywatności, podjęto już dawno. To prztyczek w nos regulatorów z innych krajów Unii Europejskiej, którzy głowią się, jak rozwiązać problemy stwarzane m.in. przez duże modele językowe takie, jak np. ChatGPT firmy OpenAI.

CNIL zapowiada, że w 2023 r. będzie nie wymyślał, jak odpowiedzieć na wyzwania sztucznej inteligencji , ale rozszerzał już istniejące wytyczne o systemy generatywnych algorytmów, duże modele językowe i czatboty.

Reklama

Jak chce działać CNIL?

CNIL swoje wytyczne odnośnie działań, które zamierza podejmować względem sztucznej inteligencji, opiera przede wszystkim na zrozumieniu tego, jak działają systemy AI i w jaki sposób wywierają wpływ na społeczeństwo.

Celem urzędu jest tworzenie takich regulacji, aby priorytetem pozostawała prywatność obywateli, przy jednoczesnym utrzymaniu korzyści płynących z korzystania z nowych technologii.

Jednocześnie, organ twierdzi, że nie ma zamiaru wycofywać się z audytowania i kontrolowania technologii sztucznej inteligencji i ochrony społeczeństwa przed jej negatywnymi skutkami.

Wszystko to ma przełożyć się na lepsze przygotowanie Francji do wdrożenia przepisów Aktu o sztucznej inteligencji, o którego założeniach pisaliśmy na łamach naszego serwisu tutaj.

Ochrona danych osobowych - fundamentalne wyzwanie

Według CNIL-u, fundamentalnym i najtrudniejszym wyzwaniem, które pojawia się w kontekście rozwoju sztucznej inteligencji, jest adekwatna ochrona danych osobowych użytkowników i wolności.

Zdaniem urzędu, pod uwagę należy brać tutaj: przejrzystość i uczciwość przetwarzania danych, stanowiące podstawę dla działania algorytmów generatywnych; ochronę danych, które są dostępne publicznie w internecie przed scrappingiem (mowa o danych np. z mediów społecznościowych) oraz kwestię ochrony danych, które w narzędziach sztucznej inteligencji umieszczają sami użytkownicy.

Należy również dokonać analizy skutków gromadzenia danych i ich wykorzystywania przez systemy sztucznej inteligencji dla praw jednostki w odniesieniu do jej danych, np. względem treści, które powstają z ich użyciem. A ponadto, podjąć działania zmierzające do ochrony obywateli przed dyskryminacją oraz obecnie trudnymi do przewidzenia skutkami dla bezpieczeństwa, mogącymi być konsekwencją rozwoju generatywnej sztucznej inteligencji.

AI - tak, ale z szacunkiem do prywatności

CNIL ocenia, że pracując nad rozwiązaniami bazującymi na sztucznej inteligencji należy brać pod uwagę przede wszystkim szacunek do prywatności i ochrony danych rozumianych przez pryzmat praw podstawowych.

Dalsze wytyczne urząd zamierza publikować latem bieżącego roku - obecnie w kwestii tej trwają konsultacje, których rezultatem ma być odniesienie się m.in. do zastosowań badawczych systemów takich jak ChatGPT, a także określenie odpowiedzialności za dane po stronie wszystkich podmiotów mających dostęp do baz danych, na których trenowane są algorytmy.

CNIL chce także opracować zestaw dobrych praktyk, mających służyć jako wytyczne w procesach szkolenia algorytmów, biorąc pod uwagę zasady takie, jak określone w RODO dążenie do minimalizacji gromadzonych informacji.

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Komentarze

    Reklama