Technologie
Sztuczna inteligencja napędza dezinformację i cenzurę
Sztuczna inteligencja napędza dezinformację, cenzurę i inwigilację. Jednak jeśli jest wdrażana z rozmysłem, może pomóc w walce z tymi zagrożeniami - wynika z najnowszego raportu organizacji Freedom House.
Sztuczna inteligencja, a w szczególności algorytmy generatywne, przyczyniają się do napędzania dezinformacji, zacieśniania cenzury i wzmocnienia inwigilacji.
Nowe technologie AI mogą stanowić zagrożenie dla demokracji i bezpieczeństwa procesów wyborczych oraz praw człowieka - ocenia organizacja non-profit z USA Freedom House. Jej zdaniem jednak, jeśli sztuczna inteligencja wdrożona zostanie mądrze, może posłużyć jako oręż do walki z tymi zagrożeniami i przyczynić się do zwiększenia bezpieczeństwa w internecie.
Generatywna AI to duże ryzyko
Generatywna sztuczna inteligencja to duże ryzyko dla wolności obywatelskich, praw człowieka i bezpieczeństwa procesów wyborczych - twierdzi organizacja.
To właśnie ten segment nowych technologii pozwala rządom wielu krajów wzmacniać działania na rzecz cenzury online i prowadzić je z niespotykaną do tej pory efektywnością. Sztuczna inteligencja przekłada się także na wzmocnienie przekazów propagandowych, represji w sieci, nadzoru elektronicznego oraz szerszą propagację dezinformacji, jak i innych wprowadzających w błąd treści, znacznie obniżając koszty i jednocześnie wzmacniając wydajność operacji informacyjnych.
W raporcie „Freedom on the Net” stwierdzono, że wolność w internecie na całym świecie w ciągu ostatniego roku spadła. To trzynasty rok z rzędu, kiedy mamy do czynienia ze spadkiem - a głównymi winowajcami takiej sytuacji są Chiny, Mjanma i Iran, które jeśli chodzi o przestrzeganie cyfrowych praw obywatelskich i respekt dla wolności mają najgorsze wyniki na 70 badanych krajów.
99 proc. treści z algorytmu
Prezes organizacji Freedom House Michael J. Abramowitz w rozmowie z agencją Reutera wskazał, że sztuczna inteligencja może być narzędziem, które służy do amplifikacji kryzysu praw człowieka w internecie.
Treści generowane przez AI mogą wkrótce stanowić nawet 99 proc. wszystkich infromacji, które spotykamy w internecie. To sytuacja bardzo trudna nie tylko ze względu na zawody takie jak dziennikarze czy autorzy, ale również na rolę moderacji treści. Zarówno systemy zautomatyzowane, opierające się na działaniu algorytmów, jak i moderacja prowadzona przy pomocy specjalistów, już teraz nie radzą sobie z ilością treści, które trzeba weryfikować i „odsiewać” w internecie np. ze względu na ich wpływ dezinformujący.
Słabo z legislacją
Freedom House zauważa, że rządy wielu krajów nie radzą sobie z szybką odpowiedzią regulacyjną na nowe zagrożenie. Ledwie kilka państw podjęło działania na rzecz uregulowania tych kwestii - dobrym przykładem może być tutaj Hiszpania. W Unii Europejskiej wdrożony w ciągu kilku lat zostanie Akt o sztucznej inteligencji - jednak na razie, jeśli chodzi o ramy prawne, przodują niedemokratyczne Chiny.
Z raportu wynika, że narzędzia oparte o sztuczną intelgiencję w czasie od czerwca 2022 do maja 2023 r. były użyte w co najmniej 16 krajach do manipulacji informacjami lub wpływania na opinię publiczną. Organizacja zaznacza przy tym, że liczby te są najpewniej niedoszacowane.
W 22 krajach w ciągu ub. roku platformy społecznościowe korzystały natomiast ze zautomatyzowanych systemów moderacji treści celem zgodności z nakazami krajowej cenzury narzucanej przez jurysdykcje, w których oferują usługi.
Fikcyjne bezpieczniki
Organizacja wskazuje, że firmy takie jak OpenAI czy Google teoretycznie wbudowały w swoje produkty generatywnej sztucznej inteligencji bezpieczniki, które mają zapobiegać nadużyciom z ich wykorzystaniem. Mechanizmy te są jednak niezwykle łatwe do obejścia, co pokazuje choćby przypadek Indii - to właśnie tam z AI najchętniej korzystają partie polityczne, które raport określa jako największe źródło manipulacji i dezinformacji opartej o sztuczną inteligencję.
Nawet, jeśli materiały typu deepfake czy inne manipulacje są szybko demaskowane i debunkowane, ich wpływ na opinię publiczną i szkody, jakie wywołują w społeczeństwie są ogromne. Treści takie służą wzmacnianiu polaryzacji i istniejących już napięć, mogą także przekładać się na nowe, prowadząc do jeszcze większej utraty zaufania wobec instytucji demokratycznych i np. mediów.
Dobre strony
Freedom House wskazuje też, że AI może być wykorzystana w dobrych celach, do walki z zagrożeniami, które wzmacnia. Zastosowania takie to m.in. fact-checking, analiza dużej ilości danych pod kątem poszukiwania wzorców czy schematów (np. zdjęć satelitarnych), a także analiza treści w mediach społecznościowych - np. po to, aby zidentyfikować źródła treści ekstremistycznych i móc w ten sposób sprawniej walczyć z ich przekazem.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].