Reklama

Cyberbezpieczeństwo

OpenAI ujawnia: Rosja używa AI na wojnie informacyjnej

OpenAI ujawniło, że podmioty powiązane z rządami czterech krajów wykorzystywały narzędzia AI udostępnione przez firmę do dezinformacji. Jak konkretnie wyglądały ich działania?
OpenAI ujawniło, że podmioty powiązane z rządami czterech krajów wykorzystywały narzędzia AI udostępnione przez firmę do dezinformacji. Jak konkretnie wyglądały ich działania?
Autor. Jonathan Kemper/Unsplash

Wykorzystanie sztucznej inteligencji do działań propagandowych staje się coraz poważniejszym problemem. Najnowszym dowodem na to twierdzenie jest ujawnienie przez OpenAI, że podmioty powiązane z rządami kilku państw wykorzystywały narzędzia firmy do tworzenia zmanipulowanych materiałów.

O tym, że AI niesie ze sobą nie tylko szanse, lecz również zagrożenia, pisaliśmy już na łamach CyberDefence24. Podczas marcowego Summit for Democracy w Seulu, prezydent Korei Południowej wskazywał, że wykorzystanie sztucznej inteligencji w celu rozpowszechniania dezinformacji narusza prawa człowieka oraz wolność jednostki, a także stanowi zagrożenie dla demokracji.

W podobnym tonie wypowiadała się Amnesty International w raporcie o stanie praw człowieka za 2023 rok, który opublikowano w kwietniuNieregulowany rozwój AI może doprowadzić nie tylko do rozpowszechniania fake news, lecz także utrwalania rasizmu czy mowy nienawiści.

Czytaj też

Reklama

Pięć podmiotów z czterech krajów

Czwartek 30 maja br. przyniósł niejako kolejny dowód na słuszność tych ostrzeżeń. Jak podaje Recorded Future News, w opublikowanym raporcie dotyczącym AI oraz kampanii wpływu, OpenAI ujawniło wykorzystanie ich narzędzi przez podmioty powiązane z rządami niektórych państw.

W dokumencie wskazano, że modele AI przygotowane przez firmę zostały wykorzystane przez dwa podmioty powiązane z Rosją – Doppelganger (tworzący treści antyukraińskie) oraz nieznany do tej pory Bad Grammar (treści w języku rosyjskim oraz angielskim na Telegramie). W tym gronie znaleźli się także aktorzy z Chin(Spamouflage, ukierunkowany głównie na chińskich odbiorców), Izraela (Zero Zeno) oraz Iranu (International Union of Virtual Media).

Według raportu, zastosowanie narzędzi OpenAI nie spowodowało, że którykolwiek z podmiotów znacząco zwiększył swoje zasięgi.

„Podmioty korzystają z naszej platformy, aby zwiększać wydajność i ulepszać swoje treści. Wciąż jednak mają trudności z dotarciem do oraz zaangażowaniem autentycznych odbiorców” – czytamy w dokumencie OpenAI.

Czytaj też

Reklama

Dezinformacja z AI, ale bez sukcesów

O ile narzędzia OpenAI były wykorzystywane przez wszystkie organizacje do tworzenia treści, a następnie dodawania ich na portale społecznościowe, tak konta na tychże nie były wyłącznie ukierunkowane na udostępnianie treści AI. Te z nich, które były częścią Spamouflage, publikowały także treści stworzone przez osoby, które nie władały językiem angielskim na dobrym poziomie. W innych przypadkach pojawiały się także „normalne” memy.

Wszystkie podmioty, oprócz wykorzystania narzędzi OpenAI, łączyła jeszcze jedna wspólna cecha – brak możliwości dotarcia do prawdziwych odbiorców. Przykładowo, konta zrzeszone w ramach Doppelgangera były szybko identyfikowane, a ich posty określane przez autentycznych użytkowników serwisu X (d. Twitter) jako fałszywe.

OpenAI podało również, że zakłóciło kampanie prowadzone przez wszystkie pięć podmiotów. Analiza ich działań wskazała z kolei, że żaden z nich nie uzyskał znaczącego wpływu na opinię publiczną, pomimo prowadzenia działań na wielu różnych platformach.

Czytaj też

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama
Reklama

Komentarze

    Reklama