Technologie

Sztuczna inteligencja w służbie propagandy. Jak jeszcze można wykorzystać modele językowe?

Fot. Jr Korpa / Unsplash

Systemy sztucznej inteligencji takie jak osławiony ChatGPT mogą przynieść prawdziwą rewolucję w tym, jak działa cyfrowa propaganda wykorzystywana do oddziaływania na sferę informacyjną przez państwa. Wszystko dzięki ekspresowej możliwości produkcji tekstu do złudzenia imitującego ludzką pracę.

Najnowszy raport naukowców z Georgetown University i Obserwatorium Internetu przy Uniwersytecie Stanforda analizuje zastosowania modeli językowych opartych o sztuczną inteligencję, takich jak ChatGPT, do działań z zakresu cyfrowej propagandy.

Zdaniem badaczy, użycie tego rodzaju narzędzi może doprowadzić do prawdziwej rewolucji w świecie operacji informacyjnych i pozwolić na ich jeszcze sprawniejszą i szybszą realizację, przy jednoczesnym – i bardzo znaczącym – zwiększeniu ich zasięgu.

Czytaj też

Jak modele językowe mogą pomóc propagandzie?

Według ekspertów, przede wszystkim przez automatyzację.

Modele takie jak ChatGPT pozwalają na bardzo szybką produkcję tekstu, który dla niewprawnego użytkownika internetu może być nie do odróżnienia od rezultatów pracy człowieka. Tekst taki może być zdaniem autorów raportu wykorzystywany m.in. do bardzo szybkiego generowania postów w mediach społecznościowych, a także do komponowania pełnowartościowych artykułów na stronach podszywających się pod serwisy informacyjne, które są zmorą fact-checkerów walczących z dezinformacją.

Fałszywe strony internetowe udające źródła informacji oraz kampanie realizowane przy pomocy polaryzujących i dezinformujących wpisów w mediach społecznościowych to ulubione narzędzia osób zajmujących się szerzeniem propagandy – m.in. rosyjskiej, o czym wielokrotnie pisaliśmy na łamach naszego serwisu.

Modele językowe mogą być również wykorzystywane do budowy czatbotów, które będą angażowały się w rozmowy z podatnymi internautami i rozpowszechniały tezy właściwe dla celów operacji propagandowych poszczególnych aktorów – nadmieniono w raporcie.

Czytaj też

Mniejsze koszty

Oprócz znaczącego usprawnienia operacji wpływu, jeśli chodzi o ich szybkość i zakres, zastosowanie modeli językowych opartych o sztuczną inteligencję pozwoli również na zmniejszenie ich kosztów.

Obecnie propaganda wymaga pracy osób odpowiedzialnych m.in. za pisanie tekstów i redagowanie materiałów dla mediów społecznościowych, a każda z nich jest za swoje działania wynagradzana. Zastosowanie algorytmu rozwiąże ten problem w sposób oczywisty.

Czytaj też

Na razie brak dowodów na zastosowanie

Według badaczy, obecnie nie znaleziono dowodów na takie złośliwe wykorzystanie modeli językowych – nie stały się one bowiem cześcią operacji wpływu.

Autorzy opracowania zwracają jednak uwagę, że problem ten z pewnością już wkrótce stanie się rzeczywistością i dlatego apelują do firm zajmujących się rozwojem takich modeli, jak i do polityków, aby proaktywnie działali na rzecz przedsięwzięcia odpowiednich środków bezpieczeństwa, zanim kłopot z wykorzystaniem AI w propagandzie stanie się realny.

Czytaj też

Jak przeciwdziałać?

Zdaniem naukowców, wśród działań mogących zapobiegać wykorzystaniu modeli językowych opartych o sztuczną inteligencję dla celów propagandy, znajduje się m.in. kontrola dostępu do sprzętu wymaganego do ich budowy, restrykcje użycia dla już istniejących modeli oraz stworzenie standardów warunkujących informowanie o przypadkach użycia tekstu generowanego przez modele tak, by osoby stykające się z nim wiedziały, iż mają do czynienia z produktem generowanym przez algorytm.

Pomocna ma być również budowa świadomości o tym, jak działają modele językowe oraz większy nacisk na edukację medialną w społeczeństwie.

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu.Piszcie do nas na: [email protected]

Komentarze

    Czytaj także