Reklama

Cyberbezpieczeństwo

Sztuczna inteligencja pozwala skuteczniej działać oszustom

Oszuści coraz chętniej sięgają po sztuczną inteligencję
Oszuści coraz chętniej sięgają po sztuczną inteligencję
Autor. Nikita Pavlov / Unsplash

Sztuczna inteligencja pozwala sprawniej działać oszustom, przyczyniając się do tworzenia bardziej wiarygodnych manipulacji - twierdzą eksperci ds. technologii. Ich opinie wspierają doświadczenia ofiar oszustów, które dzieliły się nimi w amerykańskim Senacie.

Reklama

Podczas wysłuchania ofiar oszustw internetowych oraz ekspertów ds. technologii, które miało miejsce w czwartek w amerykańskim Senacie, stwierdzono iż sztuczna inteligencja przyczynia się do powstawania coraz skuteczniejszych manipulacji i oszustw, które zbierają większe niż przedtem żniwo.

Reklama

Jeden z zaproszonych gości, profesor Tahir Ekin związany z Centrum Analizy i Data Science, powiedział że „sztuczna inteligencja amplifikuje wpływ oszustw, zwiększając ich wiarygodność i oddziaływanie emocjonalne”. Ma to miejsce przede wszystkim dzięki personalizacji przekazów, którymi posługują się oszuści.

Trudność w walce z oszustami

Personalizacja przekazu istotnie odgrywa ogromną rolę w oszustwach. Socjotechnika, czyli wszystkie działania, w ramach których cyberprzestępcy wykorzystują nasze słabości, jest skuteczna, gdy hakerzy dobrze rozpoznają czułe punkty swoich ofiar. Sztuczna inteligencja pozwala na większe niż kiedykolwiek wcześniej dopasowanie treści, a zarazem analizę danych na temat potencjalnych celów.

Reklama

Amerykańscy senatorowie, jak relacjonuje serwis The Hill, oprócz złych stron AI dostrzegają również potencjalne korzyści, które można z niej czerpać. Zdaniem Mike’a Brauna (senator z ramienia Republikanów), sztuczna inteligencja może służyć oszustom, jednak oprócz tego może także stać się narzędziem do walki z nimi - pytanie tylko, jak to zrobić.

Ofiary o oszustwach

Podczas wysłuchania, senatorowie zapoznali się z głosami ofiar, które zostały oszukane z wykorzystaniem sztucznej inteligencji. The Hill opisuje przykład jednej z nich.

Gary Schildhorn zeznał, że AI została wykorzystana do skopiowania głosu jego syna, a on sam był bliski przekazania przestępcom kwoty 9 tys. dolarów. Zreflektował się jednak i zadzwonił do swojej synowej, aby potwierdzić, czy stało się istotnie to, o czym mówili oszuści. Ci ostatni próbowali przekonać mężczyznę, że jego syn prowadził auto w stanie nietrzeźwości i miał wypadek. Oszust telefonujący do Schildhorna podawał się przy tym za prawnika i twierdził, że kwota 9 tys. dolarów potrzebna jest, aby jego syna zwolnić za kaucją z aresztu. Synowa poinformowała mężczyznę, że to nieprawda i nic takiego się nie stało.

Zdaniem Federalnej Komisji Handlu, starsi ludzie są bardziej podatni na tego typu oszustwa, są one także coraz trudniejsze do wykrycia i coraz lepiej przygotowane.

Potrzebne regulacje

Regulacje mogłyby rozwiązać problem - jednak póki co, nie ma żadnych ram prawnych dla stosowania sztucznej inteligencji, a rozporządzenie wykonawcze prezydenta Joe Bidena z końca października stanowi jedynie zbiór wytycznych dla firm. Schildhorn, którego historię przytoczyliśmy wcześniej, wskazuje, iż powinno istnieć prawo, które pozwalałoby jednocześnie zidentyfikować przestępców posługujących się narzędziami AI do wymuszania środków finansowych.

Do oszustwa de facto w tym wypadku jednak nie doszło, bo mężczyzna nie przelał sprawcom żadnych środków - organy śćigania nie mają więc czym się zająć. Po wysłuchaniu tej i podobnych historii eksperci obecni podczas posiedzenia doradzili politykom, aby w ramach regulacji spróbować poszukać równowagi pomiędzy innowacjami technologicznymi a ochroną najbardziej zagrożonych przez oszustwa osób.

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Komentarze

    Reklama