Polityka i prawo
Szef OpenAI: Zaawansowane systemy sztucznej inteligencji potrzebują ścisłej regulacji
Zaawansowane systemy sztucznej inteligencji potrzebują ścisłej regulacji i powinny działać w oparciu o rządowe licencje - m.in. taką tezę przed Kongresem przedstawił szef firmy OpenAI Sam Altman, jeden z twórców słynnego modelu ChatGPT.
Sam Altman - szef spółki OpenAI rozwijającej m.in. model ChatGPT, we wtorek stanął przed amerykańską senacką podkomisją ds. prywatności, technologii i prawa. Już wcześniej na łamach naszego serwisu pisaliśmy , że Altman będzie wzywał polityków do uregulowania branży sztucznej inteligencji. Prognozy te sprawdziły się.
Krytyczna interwencja
„Uważamy, że interwencja regulacyjna ze strony rządów będzie krytycznie istotna, gdy mowa o mitygacji ryzyka związanego z coraz bardziej zaawansowanymi modelami" - powiedział Altman cytowany przez serwis Ars Technica .
Odnosząc się do rozwiązań adekwatnych dla regulacji sztucznej inteligencji w Stanach Zjednoczonych, szef OpenAI zaproponował „połączenie licencjonowania i wymagań dotyczących testowania w zakresie rozwoju i udostępniania modeli AI powyżej pewnego progu możliwości".
Altman zaznaczył, że obawia się ryzyka, jakie niepohamowany rozwój sztucznej inteligencji stwarza m.in. dla przebiegu procesów demokratycznych i wskazał tu na treści generowane przy pomocy algorytmów, mogące wprowadzać w błąd lub dezinformować. „Zważywszy na to, że w przyszłym roku mamy wybory, a modele są coraz lepsze, myślę, że to znaczący obszar... myślę, że w tej kwestii pewna regulacja byłaby mądra" - cytuje słowa szefa OpenAI serwis.
Jednocześnie, jak zauważa redakcja, Altman wskazywał wielokrotnie na korzyści płynące z zastosowania sztucznej inteligencji, choć podkreślił, że branża AI może „wywołać znaczące szkody" dla całego świata.
Nowy organ i rządowe licencje
Zdaniem Altmana, w przyszłości zasadne będzie stworzenie oddzielnego organu na poziomie federalnym , który odpowiedzialny ma być za wydawanie licencji na użycie systemów opartych o sztuczną inteligencję „powyżej pewnej skali możliwości". Agencja taka miałaby też czuwać nad przestrzeganiem zasad bezpieczeństwa sztucznej inteligencji.
Systemy takie, zanim zostaną oddane do publicznego użytku, powinny być - w opinii menedżera - niezależnie audytowane przez ekspertów, którzy będą oceniać ich zgodność ze standardami bezpieczeństwa.
Altman podkreślił też, że jego firma chce współpracować z rządem USA przy odpowiednich regulacjach dotyczących AI i uczestniczyć w całym procesie tworzenia ram dla bezpieczeństwa systemów opartych o tę technologię.
Jakie systemy objąć obowiązkiem licencyjnym?
Jako przykłady modeli, które miałyby podlegać pod obowiązek uzyskiwania rządowych licencji, Altman wskazał systemy mogące „przekonywać, manipulować, a także wpływać na zachowanie osób lub ich poglądy", a także „pomagać w produkcji nowych substancji biologicznych", odnosząc się tym samym do przyspieszenia w dziedzinie badań biotechnologicznych i medycznych, które ma miejsce za sprawą sztucznej inteligencji, jak i możliwości wykorzystania zdobyczy nauki w celach militarnych.
Co z prywatnością?
Podczas swojego wystąpienia przed Kongresem, Altman odniósł się również do kwestii prywatności danych, która jest często poruszana w kontekście ceny i niepożądanych skutków szybkiego rozwoju sztucznej inteligencji. Jego zdaniem osoby powinny mieć możliwość wycofania swoich danych z systemów wykorzystywanych do uczenia sztucznej inteligencji i opartych na niej modeli.
IBM chce przejrzystości
Podczas wysłuchania obecna była również przedstawicielka koncernu IBM odpowiedzialna za prywatność i zaufanie - Christina Montgomery. Również ona wypowiedziała się w kwestii sztucznej inteligencji - m.in. poruszając temat przejrzystości działań.
Montgomery wskazała, że konieczne jest stworzenie wymogu transparentności dla działania systemów w sferze publicznej . Konsumenci powinni mieć każdorazowo świadomość tego, że podejmują interakcje ze sztuczną inteligencją i nie powinni być w tej kwestii wprowadzani w błąd. „Żadna osoba nie powinna być oszukana w kwestii interakcji z systemami AI. Era sztucznej inteligencji nie może być kolejną erą >>poruszania się szybko i rozwalania rzeczy<<„ - powiedziała, odnosząc się do słynnej maksymy Marka Zuckerberga, szefa Mety (Facebooka).
Zuckerbergowi udało się wywołać rewolucję i zmienić sposób, w jaki korzystamy z internetu, jednak odbyło się to bardzo dużym kosztem społecznym, a skutki tej rewolucji będziemy odczuwali jeszcze wiele lat - zarówno w kwestii naszej prywatności, jak i tego, w jaki sposób wykorzystywane są media społecznościowe np. do manipulowania naszymi wyborami politycznymi i konsumenckimi.
Zdaniem przedstawicielki IBM, regulacje powinny dotyczyć nie samej technologii, ale sposobu korzystania z niej i wdrażania jej w konkretnych zastosowaniach. Jak powiedziała Montgomery, Kongres powinien jasno zdefiniować ryzyko niesione przez AI i narzucić „odpowiednie reguły dla różnych rodzajów ryzyka" z najsilniejszymi regulacjami stosowanymi do tych przypadków użycia, które niosą z sobą najwięcej zagrożeń dla ludzi i społeczeństwa.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].