Reklama

Technologie

#CyberMagazyn: Spiski, fałszywe narracje i cyberataki – podróż po świecie AI

Czy w dobie sztucznej inteligencji będziemy potrafili wykryć fałszywe treści?
Czy w dobie sztucznej inteligencji będziemy potrafili wykryć fałszywe treści?
Autor. Amanda Dalbjörn/ Unsplash

Usiądź wygodnie, zapnij pasy i o nic się nie martw. Tego pojazdu sztucznej inteligencji i tak już nie zatrzymasz, ale możesz nauczyć się unikać wypadków. Zapraszamy na przejazd luksusową trasą „na skalę naszych możliwości” i na miarę naszych czasów. Kierunek? Bezpiecznie korzystać z narzędzi wykorzystujących AI i nie dać się nabrać oszustom. Jednak najpierw – kilka stacji po drodze.

Reklama

Przystanek 1. Dezinformacja

Narzędzia wykorzystujące sztuczną inteligencję często samodzielnie tworzą fałszywe narracje. Nieaktualne dane, nieumiejętność wyciągania celnych wniosków, wymyślanie źródeł – to tylko niektóre z problemów.

Reklama

AI może też – na naszą prośbę – tworzyć fałszywe narracje i teorie spiskowe. Nie bez powodu użytkownicy forów internetowych zarabiający na tworzeniu treści niezgodnych z prawdą, chwalą sobie ChatGPT jako narzędzie, które może pomóc im w „pracy”.

W raporcie CERT Orange Polska wskazano na „kluczową rolę sztucznej inteligencji w tworzeniu i rozprzestrzenianiu dezinformacji”. Czytamy tam również, że „wprowadzony niedawno na rynek ChatGPT jest tylko wierzchołkiem góry lodowej możliwości, które zaoferować może sztuczna inteligencja w kreatywnych rękach”.

Reklama

Jak pisaliśmy na łamach Demagoga, technologia ta nie ma najmniejszych problemów z wymyśleniem od podstaw teorii spiskowej. Jeśli do tekstu wygenerowanego przez chatbota dołączymy wiarygodnie wyglądający deepfake , otrzymujemy „idealnego” fake newsa – trudnego do rozpoznania i na dowolny temat.

Czytaj też

Przystanek 2. Zagrożenie dla prywatności

To nie popularna w memach odpowiedź o ananasie na pizzy sprawiła, że Włochy zadecydowały o zakazie korzystania z ChatGPT. Powodem było ryzyko dla prywatności jego użytkowników, ponieważ narzędzie to gromadzi takie dane jak: tekst rozmowy, informacje o urządzeniu i jego lokalizację, a także aktywność na portalach społecznościowych, którą z kolei można połączyć z adresem e-mail i numerem telefonu.

Co więcej, z uwagi na indywidualny charakter rozmowy użytkownicy mogą być bardziej skłonni do podawania osobistych informacji niż w przypadku korzystania ze zwykłej wyszukiwarki. Co dzieje się z tymi informacjami? Microsoft przyznał , że pozwala pracownikom czytać zapytania użytkowników ChatGPT.

Z kolei w marcu 2023 roku OpenAI, firma odpowiedzialna za ChatGPT, przyznała, że zdarzył się błąd , który spowodował, że część użytkowników mogła podejrzeć rozmowy innych osób korzystających z chatu.

Czytaj też

Przystanek 3. Cyberprzestępcy mają łatwiej

Eksperci alarmują , że powszechny dostęp do narzędzi wykorzystujących AI obniży próg wejścia dla internetowych oszustów. Sztuczna inteligencja może pomóc w pisaniu złośliwego oprogramowania osobie, która do tej pory – z uwagi na ograniczoną wiedzę czy możliwości – nie miała do tego dostępu.

Co więcej, AI umożliwi tworzenie – w różnych językach – wiarygodnych e-maili phishingowych . Chatboty już teraz radzą sobie lepiej z tłumaczeniem tekstu niż np. Tłumacz Google. W ten sposób przestępcy o niewielkich zdolnościach językowych otrzymują narzędzie ułatwiające im „pracę”.

Czytaj też

Przystanek 4. Oszustwa trudniejsze do rozpoznania

Dzięki zastosowaniu sztucznej inteligencji internetowe oszustwa stają się nie tylko łatwiejsze do przeprowadzenia, lecz także trudniejsze do rozpoznania. Chatboty oparte na AI pomogą w napisaniu przekonującej treści scamu, a generatory obrazów stworzą realnie wyglądającą postać w nieprawdziwej sytuacji. Dodajmy do tego trafne tłumaczenie, które umożliwi rozesłanie przekonujących maili do wielu osób, niezależnie od języka, jakim posługują się one na co dzień. Tym samym błędy językowe przestaną być znakiem rozpoznawczym scamów.

Z kolei generatory wideo sprawią, że trudniejsze stanie się rozpoznanie fałszywej wypowiedzi Elona Muska namawiającego do rejestracji na niebezpiecznej stronie. Natomiast narzędzie do edycji głosu pozwoli przekonać (nawet) matkę, że słyszy własne dziecko, gdy oszuści będą chcieli wyłudzić okup. A to nie koniec rozwoju sztucznej inteligencji – nie koniec też możliwości wykorzystania AI przez przestępców.

Czytaj też

Stacja docelowa?

Droga do bezpiecznego korzystania z narzędzi AI, a zarazem do niewpadnięcia w pułapki oszustów jest kręta i wyboista. Wiedzie przez świadomość o zagrożeniach, których wcale nie jest mało. Z tego powodu polecamy dla pewności nie odpinać jeszcze pasów – tym bardziej że wyścig AI nie zwalnia tempa.

Problemem nie jest samo istnienie tych narzędzi, lecz przede wszystkim nieumiejętne korzystanie oraz brak wiedzy, w jaki sposób mogą być użyte przez nieuczciwe osoby. Rozwój sztucznej inteligencji prowadzi do wielu zagrożeń. Do obrony przed nimi najbardziej pomocne są… ludzka inteligencja i uważność.

Autorka: Izabela Tomaszewska, Stowarzyszenie Demagog

Czytaj też

Reklama
Reklama

Komentarze