Cyberbezpieczeństwo
OpenAI ujawnia: Rosja używa AI na wojnie informacyjnej
Wykorzystanie sztucznej inteligencji do działań propagandowych staje się coraz poważniejszym problemem. Najnowszym dowodem na to twierdzenie jest ujawnienie przez OpenAI, że podmioty powiązane z rządami kilku państw wykorzystywały narzędzia firmy do tworzenia zmanipulowanych materiałów.
O tym, że AI niesie ze sobą nie tylko szanse, lecz również zagrożenia, pisaliśmy już na łamach CyberDefence24. Podczas marcowego Summit for Democracy w Seulu, prezydent Korei Południowej wskazywał, że wykorzystanie sztucznej inteligencji w celu rozpowszechniania dezinformacji narusza prawa człowieka oraz wolność jednostki, a także stanowi zagrożenie dla demokracji.
W podobnym tonie wypowiadała się Amnesty International w raporcie o stanie praw człowieka za 2023 rok, który opublikowano w kwietniu. Nieregulowany rozwój AI może doprowadzić nie tylko do rozpowszechniania fake news, lecz także utrwalania rasizmu czy mowy nienawiści.
Czytaj też
Pięć podmiotów z czterech krajów
Czwartek 30 maja br. przyniósł niejako kolejny dowód na słuszność tych ostrzeżeń. Jak podaje Recorded Future News, w opublikowanym raporcie dotyczącym AI oraz kampanii wpływu, OpenAI ujawniło wykorzystanie ich narzędzi przez podmioty powiązane z rządami niektórych państw.
W dokumencie wskazano, że modele AI przygotowane przez firmę zostały wykorzystane przez dwa podmioty powiązane z Rosją – Doppelganger (tworzący treści antyukraińskie) oraz nieznany do tej pory Bad Grammar (treści w języku rosyjskim oraz angielskim na Telegramie). W tym gronie znaleźli się także aktorzy z Chin(Spamouflage, ukierunkowany głównie na chińskich odbiorców), Izraela (Zero Zeno) oraz Iranu (International Union of Virtual Media).
Według raportu, zastosowanie narzędzi OpenAI nie spowodowało, że którykolwiek z podmiotów znacząco zwiększył swoje zasięgi.
„Podmioty korzystają z naszej platformy, aby zwiększać wydajność i ulepszać swoje treści. Wciąż jednak mają trudności z dotarciem do oraz zaangażowaniem autentycznych odbiorców” – czytamy w dokumencie OpenAI.
Czytaj też
Dezinformacja z AI, ale bez sukcesów
O ile narzędzia OpenAI były wykorzystywane przez wszystkie organizacje do tworzenia treści, a następnie dodawania ich na portale społecznościowe, tak konta na tychże nie były wyłącznie ukierunkowane na udostępnianie treści AI. Te z nich, które były częścią Spamouflage, publikowały także treści stworzone przez osoby, które nie władały językiem angielskim na dobrym poziomie. W innych przypadkach pojawiały się także „normalne” memy.
Wszystkie podmioty, oprócz wykorzystania narzędzi OpenAI, łączyła jeszcze jedna wspólna cecha – brak możliwości dotarcia do prawdziwych odbiorców. Przykładowo, konta zrzeszone w ramach Doppelgangera były szybko identyfikowane, a ich posty określane przez autentycznych użytkowników serwisu X (d. Twitter) jako fałszywe.
OpenAI podało również, że zakłóciło kampanie prowadzone przez wszystkie pięć podmiotów. Analiza ich działań wskazała z kolei, że żaden z nich nie uzyskał znaczącego wpływu na opinię publiczną, pomimo prowadzenia działań na wielu różnych platformach.
Czytaj też
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].
Haertle: Każdego da się zhakować
Materiał sponsorowany