Reklama

Technologie

Przed zagładą spowodowaną przez AI ostrzegają Zachód i Chiny. Jak jest naprawdę? [KOMENTARZ]

Chiny ostrzegają przed ryzykiem i zagrożeniami, które powoduje szybki rozwój sztucznej inteligencji. Jednocześnie wzywają do zaostrzenia środków dla bezpieczeństwa narodowego. Co to oznacza? Jeszcze większą kontrolę państwa nad sferą cyfrową.

Reklama

Prezydent Xi Jinping we wtorek spotkał się z kierownictwem Komunistycznej Partii Chin. Jak donosi agencja Associated Press, rezultatem spotkania jest wspólne stanowisko na temat konieczności zwiększenia środków dla bezpieczeństwa narodowego z powodu zagrożeń wywoływanych szybkim rozwojem sztucznej inteligencji.

Reklama

Polityczne bezpieczeństwo

Reklama

Bezpieczeństwo narodowe Chin nie rozmija się z inną ważną dla Xi kategorią - bezpieczeństwem politycznym. To właśnie ono było tematem rozmów przywódcy z partyjnym kierownictwem - i to ono jest zdaniem Pekinu najbardziej zagrożone w obliczu postępu w branży AI, w tym algorytmów generatywnej sztucznej inteligencji.

Chińska państwowa agencja prasowa Xinhua poinformowała, że w rezultacie spotkania zwiększone mają być wysiłki na rzecz „zagwarantowania bezpieczeństwa politycznego i polepszenia bezpiecznego zarządzania danymi internetowymi oraz sztuczną inteligencją". Oznacza to nie mniej i nie więcej niż jeszcze silniejszą kontrolę państwa nad sferą cyfrową.

Xi Jinping zdaje sobie sprawę ze złożoności zagadnień bezpieczeństwa wokół sztucznej inteligencji i ryzyka, jakie niesie ona dla ideologii komunistycznej. Wyrazem tego było m.in. zablokowanie dostępu do modelu ChatGPT amerykańskiej firmy OpenAI, a także pokazowy proces za fake newsy wygenerowane przy użyciu tego czatbota przez obywatela ChRL, co stanowi jasny komunikat dla społeczeństwa: ustanowione w styczniu tego roku, restrykcyjne regulacje działają, a aparat władzy czuwa nad ich przestrzeganiem.

„Chiny potrzebują nowego wzoru rozwoju z nową architekturą bezpieczeństwa" - cytuje swojego prezydenta agencja Xinhua.

Ostrzega też Zachód, ale inaczej

Ostrzeżenia napływające z Chin to nie jedyny sceptyczny głos wobec rozwoju sztucznej inteligencji i jego niedookreślonych obecnie konsekwencji - kolejny raz mamy bowiem do czynienia z działaniami biznesu, które nie uwzględniają konieczności osadzenia podejmowanych decyzji w realiach odpowiedzialności społecznej.

Biznes jednak - ustami przedstawicieli Microsoftu i Google - również zwraca uwagę na problemy niesione przez szybki postęp - i mówi m.in. o tym, że rozwój AI może doprowadzić do wymarcia ludzkości.

To mocne słowa, które można przeczytać we wspólnym oświadczeniu liderów biznesu AI na stronie Centrum dla Bezpieczeństwa AI. Walka z takim scenariuszem powinna być dla wszystkich priorytetem globalnym, podobnie jak oddalenie innych rodzajów ryzyka, takich jak kolejne pandemie czy wojna atomowa.

Zdaniem prof. Yanna LeCuna, sprawnie żonglującego rolą naukowca i jednocześnie pracownika koncernu Meta, w którym szefuje badaniom nad sztuczną inteligencją, obawy te są jednak przesadzone, a poważni badacze „pukają się w czoło", kiedy słyszą apokaliptyczne wizje i obawy dotyczące AI.

Jak jest naprawdę?

Czatboty, takie jak ChatGPT czy inne algorytmy generatywne, nie mają wiele wspólnego z silną sztuczną inteligencją, którą mają na myśli osoby wieszczące koniec ludzkości.

Mocno brzmiące obawy ze strony przedstawicieli branży można uznać za próbę oddziaływania na procesy regulacyjne - firmy chcą mieć duży wpływ na wypracowywane w dziedzinie sztucznej inteligencji regulacje, bo tylko to długofalowo gwarantuje im komfort i swobodę działania. Nic więc dziwnego, że realizują działania lobbingowe, jak np. Sam Altman, szef OpenAI, podczas swojej wizyty w Polsce i w innych krajach.

Na Zachodzie piłeczka jest po stronie wielkiego biznesu - na Wschodzie, po stronie żelaznych struktur państwa. Pytanie, gdzie w tym wszystkim znajdzie się troska o dobro użytkowników i obywateli cyfrowego świata?

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na:[email protected].

Reklama

Komentarze

    Reklama