Technologie
Regulacje potrzebne od zaraz. Co dalej ze sztuczną inteligencją?
W odpowiedzi na wyścig o – w zamyśle twórców – najlepsze narzędzia sztucznej inteligencji, organy regulacyjne próbują odpowiedzieć na pytanie, jak w porę zdążyć z zapisami dotyczącymi generatywnej AI. Zdecydowanie muszą się pospieszyć.
Jak na razie w regulacjach, które mają w jakiś sposób uporządkować sektor sztucznej inteligencji przoduje Unia Europejska, która i tak spóźniła się w kontrze do szybkiego (jeśli nie zbyt szybkiego) postępu modelu językowego autorstwa OpenAI.
Jak zwraca uwagę Reuters, organy regulacyjne jak na razie muszą polegać na obecnie obowiązujących przepisach, czyli takich, które nie uwzględniały systemów sztucznej inteligencji. Nie zakładają one na przykład takich sytuacji, jak decyzje podejmowane przez prawnika w oparciu o chatboty AI czy udzielania odpowiedzi dyskryminujących jedną stronę sporu.
Cytowany przez serwis Massimilano Cimnaghi, europejski ekspert ds. zarządzania danymi w firmie konsultingowej BIP, zwraca uwagę, że obecnie jedyną kwestią, jaką mogą zrobić rządy jest stosowanie się do obowiązujących regulacji w takim stopniu, jaki jest możliwy. I tak w zakresie ochrony danych osobowych stosuje się te przepisy, które obowiązują – nawet jeśli nie zostały one ściśle sprecyzowane pod systemy sztucznej inteligencji.
Wątpliwości wokół ChatuGPT
Przypomnijmy, że ChatGPT wzbudzał już wątpliwości legislacyjne – szczególnie we Włoszech, gdzie regulator Garante zdecydował się na zakaz usługi na jakiś czas, oskarżając OpenAI o naruszenie unijnych regulacji RODO. Ostatecznie usługa powróciła do użytku publicznego, po tym jak firma zdecydowała się na wprowadzenie kilku dodatkowych funkcji – między innymi weryfikacji wieku czy możliwość zablokowania wykorzystywania informacji do trenowania ich modelu AI.
Jednak to nie jedyne państwo, które już podjęło na własną rękę zbadanie kwestii zgodności ChatuGPT z przepisami dotyczącymi prywatności.
Dobrym przykładem może być Francja, gdzie organ ochrony danych osobowych - CNIL – stworzył plan działania oraz wytyczne w kwesti poszanowania prywatności użytkowników przez systemy sztucznej inteligencji.
Czytaj też
Francuskie założenie jest takie, że priorytetem pozostanie prywatność obywateli, przy jednoczesnym utrzymaniu korzyści płynących z korzystania z nowych technologii. Jak pisaliśmy, ma to lepiej przygotować Francję na wdrożenie Aktu o sztucznej inteligencji i pomóc w zachowaniu przejrzystości i uczciwości przetwarzania danych, stanowiących podstawę dla działania algorytmów generatywnych. Kolejną kwestią ma być ochrona danych, które są dostępne publicznie w internecie przed scrappingiem oraz informacji, które w narzędziach sztucznej inteligencji umieszczają sami użytkownicy.
Z kolei w Wielkiej Brytanii Urząd Nadzoru Finansowego jest jednym z kilku państwowych organów regulacyjnych, którym powierzono zadanie opracowania nowych wytycznych dotyczących sztucznej inteligencji. W ramach prac trwają konsultacje z naukowcami, uczelniami czy prawnikami.
Unia Europejska przoduje, choć i tak z opóźnieniem
W Unii Europejskiej trwają prace nad Aktem o sztucznej inteligencji (tzw. AI Act), którego celem jest ograniczenie zagrożeń wynikających z różnych zastosowań tej technologii, a w szczególności tych, które obejmują profilowanie ludzi i zautomatyzowane podejmowanie decyzji.
Jak pisaliśmy na łamach CyberDefence24.pl, w połowie maja br. Komisja Rynku Wewnętrznego i Komisja Wolności Obywatelskich przyjęły mandaty negocjacyjne dotyczące projektu regulacji sztucznej inteligencji (tzw. AI Act) przy 84 głosach „za”, 7 sprzeciwiających się oraz 12 – wstrzymujących się. Zanim rozpoczną się negocjacje z Radą w sprawie ostatecznego kształtu ustawy, projekt mandatu negocjacyjnego musi zostać zatwierdzony przez cały Parlament. Głosowanie w tej sprawie może odbyć się w czasie sesji plenarnej, planowanej na 12-15 czerwca br.
Czytaj też
USA też bierze się za AI
Póki co UE przoduje w pracach nad regulacjami AI, które mogą stanowić punkt odniesienia dla kolejnych tego typu dokumentów. Jednak działania w zakresie sztucznej inteligencji podjęły także Stany Zjednoczone. W maju Biały Dom zorganizował spotkanie z przedstawicielami branży sztucznej inteligencji, by rozmawiać z nimi na temat ewentualnych ryzyk, wynikających z użycia AI, takich jak np. zagrożenie dezinformacją, dyskryminacją przez algorytmy czy potencjalnym użyciem modelów językowych przez cyberprzestępców. Spotkanie zostało jednak srytykowane w niektórych kręgach jako rozmowa tylko i wyłącznie z osobami, które ten problem stworzyły – z pominięciem m.in. osób, które są w stanie omówić etyczne podejście do zagadnień AI.
Kolejnym krokiem było opublikowanie dokumentu wskazującego na założenia strategii, jaka miałaby skupiać się na odpowiedzialnym rozwoju tej technologii. Ma opierać się na trzech głównych filarach, by zapewnić bezpieczeństwo Amerykanów, o czym więcej piszemy w tym tekście.
Czytaj też
Jakie wyzwania przed nami?
Kluczowa w tym zakresie wydaje się nie tylko „oddolna praca nad regulacjami”, ale zaangażowanie liderów technologicznych i pociągnięcie ich do odpowiedzialności względem modeli, które już wprowadzili na rynek w zasadzie (jak zwykle zresztą) bez żadnych konswekwencji. Wszystko po to, abyśmy nie obudzili się z technologicznego snu przekonani za kilka lat, że przespaliśmy negatywne skutki kolejnej (r)ewolucji, wierząc w to, iż postęp – jest najważniejszy, bez względu na jego polityczne i przede wszystkim - etyczne koszty.
Czytaj też
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].