Reklama

Cyberbezpieczeństwo

Fot. kalhh/Pixabay

#CyberMagazyn: Sztuczna inteligencja: regulować czy rozwijać? Plany Europy, Chin i USA

Globalny wyścig o dominację w obszarze sztucznej inteligencji trwa. Wraz z nowymi rozwiązaniami technologicznymi pojawia się coraz więcej zagrożeń, a regulacje w niektórych częściach świata nie weszły jeszcze w życie. Ryzyko jest duże — od fałszywych treści po błędne diagnozy i materiały wykorzystujące technologię deepfake. Najważniejsze, by na czas wprowadzić odpowiednie przepisy.

Reklama

Chiny zrobiły to już jakiś czas temu, Stany Zjednoczone również, choć w zdecydowanie mniejszej skali. Parlament Europejski również pracuje nad rozwiązaniami , które uregulują kwestię wykorzystywania AI. Wszyscy zdają sobie sprawę, że odpowiednie regulacje to droga do sukcesu — zarówno etycznego, jak i gospodarczego.

Reklama

Czytaj też

Reklama

Europa i AI Act

14 czerwca 2023 roku Parlament Europejski (PE) przyjął większością głosów stanowisko w sprawie aktu o sztucznej inteligencji. Polityka UE ma na celu przede wszystkim stworzenie przyjaznych warunków dla rozwoju i wykorzystania AI, aby budować konkurencyjność produktów europejskich. Artificial Intelligence Act (AI Act) ma gwarantować bezpieczeństwo i czynić technologię bezpieczną dla ludzi.

Przepisy podzieliły systemy AI na trzy grupy ryzyka: niedopuszczalne, wysokie oraz średnie lub minimalne. Aplikacje mogące szkodzić zdrowiu, bezpieczeństwu, prawom podstawowym i środowiskowym zostały jednocześnie uznane za niedozwolone.

Czytaj też

Czego Parlament Europejski zamierza zabronić?

Niedozwolona będzie np. biometria (tj. systemy rozpoznające charakterystyczne cechy fizyczne lub behawioralne ludzi) w miejscach publicznych (wyjątkiem są sytuacje, na które zezwoli sąd). Zakazana będzie też biometryczna kategoryzacja ze względu na cechy indywidualne i grupowe, predykcja kryminalna (szacowanie ryzyka popełnienia przestępstwa przez wybraną osobę), a także rozpoznawanie emocji.

To jeszcze nie koniec prac nad przepisami w tym regionie świata. Ustawa przechodzi teraz w tryb wspólnych prac europosłów z Radą UE i Komisją Europejską. W ostatecznym kształcie akt prawdopodobnie wejdzie w życie w połowie przyszłego roku .

Czytaj też

Czego AI Act nie uwzględnia?

Nie wszystkie niebezpieczeństwa uwzględniono w akcie prawnym. Listę brakujących regulacji punktuje Fundacja Panoptykon, która chroni podstawowe wolności, zagrożone rozwojem nowych technologii.

Zdaniem fundacji, w przepisach brakuje zakazu inwigilacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej oraz obowiązku rejestrowania wszystkich systemów wysokiego ryzyka w unijnej bazie. Panoptykon postuluje także zwiększenie zaangażowania organizacji społecznych w ochronę ludzi oraz możliwość każdorazowego wyjaśniania decyzji podjętej przy pomocy systemów AI.

Czytaj też

Chiny i polityka bezpieczeństwa

Mimo że w Europie prace nad normami odnoszącymi się do wykorzystywania AI wyraźnie nabierają tempa, to Chińska Republika Ludowa (ChRL) wydaje się dzierżyć palmę pierwszeństwa w sprawie regulacji. Gdy w 2017 roku PE opublikował pierwsze sprawozdanie dotyczące AI, ChRL wdrażała już pierwszy plan rozwoju sztucznej inteligencji nowej generacji .

Zdaniem portalu internetowego Axios powyższy plan jest formą uprawiania polityki przemysłowej, która jest dodatkiem do tradycyjnych subsydiów. Wzrost zainteresowania systemami AI ma być także napędzany przez jasno określone zasady przetwarzania danych i działania tych narzędzi.

Jako cel w 2017 roku określono utworzenie wewnętrznego rynku AI wartego 150 mld dolarów w ciągu 5 lat. Do 2030 roku ChRL planuje zostać liderem w tej dziedzinie. Jeszcze w grudniu 2022 roku Chińska Agencja Cyberprzestrzeni (CAC) opublikowała plan wprowadzania regulacji.

Jakie są cele planu?

Przede wszystkim będzie on wymuszał oznaczanie treści generowanych przez systemy AI. Nakazano w nim również przejrzyste i transparentne zasady — prawo do wyłączenia algorytmicznej usługi rekomendacji lub prawo do informacji o treściach generowanych przez sztuczną inteligencję.

W kwietniu 2023 roku CAC opublikowała kolejny zarys regulacji dotyczących systemów AI. Jedną z kluczowych norm jest wymóg „przestrzegania wartości socjalistycznych”, co możemy interpretować jako zgodność z tamtejszą polityką państwową.

Co więcej, aplikacje generatywne muszą zapobiegać publikowaniu treści dyskryminujących, fałszywych informacji, naruszania prywatności i własności intelektualnych. Surowo zabroniona została „głęboka synteza” („deep synthesis”), czyli generowanie treści audio, wideo czy tekstowych przez systemy AI, które mogą wprowadzać w błąd.

USA: regulować czy rozwijać

Mimo że plany ChRL w zakresie technologicznego rozwoju AI są ambitne, to jednak liderem pozostają Stany Zjednoczone (USA). Przewodzą oni nie tylko pod względem liczby opracowanych modeli uczenia maszynowego w ostatnim dwudziestoleciu, ale również w kwestii prywatnych inwestycji oraz wsparcia finansowego dla firm pracujących nad AI.

USA jako kolebka aplikacji AI

To właśnie ze Stanów Zjednoczonych pochodzą firmy, które opatentowały choćby Chata GPT , Barda , DALL-E czy Midjourney , o których ostatnio jest najgłośniej. W system AI inwestuje też Meta . Z tego względu dla USA mogą być istotne nie tylko regulacje, lecz także utrzymanie statusu globalnego przodownika.

8 kwietnia 2023 roku doszło do spotkania amerykańskiego prezydenta Joe Bidena i premierem Wielkiej Brytanii Rishim Sunakiem. Jednym z tematów spotkania były uzgodnienia w kwestii regulacji dotyczących sztucznej inteligencji. Ich ustalenia mają się znaleźć w „Deklaracji Atlantyckiej” . Jednym z głównych jej celów jest podwyższenie bezpieczeństwa gospodarczego, którego zagrożenia upatruje się ze strony Chin i Rosji.

Czy USA próbowały wcześniej reagować na rozwój AI?

Rok temu Biały Dom opublikował Kartę Praw Sztucznej Inteligencji. Określa ona 5 zasad zapobiegania dyskryminacji oraz ochrony prywatności i bezpieczeństwa użytkowników. W kwestii regulacji działają jeszcze Narodowy Instytut Standardów i Technologii , Kongres oraz Rada ds. Handlu i Technologii (zacieśniająca współpracę między UE i USA).

Równolegle do decyzji przedstawicieli władz i regulatorów, mamy także stanowiska przedsiębiorstw i firm odpowiedzialnych za wdrażanie systemów AI. Sam Altman , dyrektor generalny OpenAI, podczas swojej europejskiej podróży postulował konieczność regulowania AI.

Stanowisko Altmana i apel ekspertów

Altman mówił o instytucji na wzór Międzynarodowej Agencji Energii Atomowej, która miałaby globalnie regulować sztuczną inteligencję. Jednak chwilę później twierdził już, że zaklasyfikowanie narzędzi OpenAI przez organy UE do systemów „wysokiego ryzyka” będzie jednoznaczne z opuszczeniem Unii Europejskiej przez firmę i z zablokowaniem dostępu do ich usług.

Z kolei w liście opublikowanym przez Future of Life Institute (liczącym dziś 33 003 podpisy; stan: 26.06) Elon Musk, Steve Wozniak czy Yuval Noah Harari zachęcają do natychmiastowego wstrzymania prac nad modelami „silniejszymi niż GTP-4”, opracowanego przez OpenAI, na czas co najmniej 6 miesięcy. Warto nadmienić, że Elon Musk był jednym z twórców firmy OpenAI, którą opuścił w 2018 roku.

Co dalej?

Kroki ws. regulacji podejmują również Australia , Japonia , Brazylia czy Kanada . Indie natomiast zaniechały tego typu działań, tłumacząc swoje stanowisko rozwojem gospodarczym. Mimo że regulacjom przewodzi ChRL, to wciąż w obszarze technologicznym dominują Stany Zjednoczone.

Unia Europejska i Wielka Brytania także nie pozostają bez działań. I choć regulacje dotyczące AI są fundamentalne dla naszego bezpieczeństwa , to są również kluczowym elementem rozwoju technologii dla każdego z regionów świata.

Autor: Aleksy Szymkiewicz Stowarzyszenie Demagog

Reklama

Komentarze

    Reklama