Reklama

Cyberbezpieczeństwo

Sztuczna inteligencja już wpływa na cyberprzestępczość

Czy sztuczna inteligencja już wpływa na wzrost cyberprzestępczości?
Czy sztuczna inteligencja już wpływa na wzrost cyberprzestępczości?
Autor. Canva AI/ wygenerowane przez sztuczną inteligencję

W naszej ocenie rozwój narzędzi AI może przyczynić się do znacznego obniżenia progu wejścia w świat cyberprzestępczości – wskazują eksperci z CSIRT KNF - zespołu Reagowania na Incydenty Bezpieczeństwa Komputerowego w sektorze finansowym. Czy czeka nas zalew deepfake, które będą namawiać do fałszywych okazji inwestycyjnych?

W raporcie rocznym Zespołu Reagowania na Incydenty Bezpieczeństwa Komputerowego CSIRT KNF, w którym przenalizowano zagrożenia cyberbezpieczeństwa w sektorze finansowym, specjaliści wskazali także na wpływ sztucznej inteligencji na cyberprzestępczość.

Czytaj też

Jak czytamy, zdaniem ekspertów „dostęp do technologii AI wyprzedził ogólną wiedzę o sposobie jej działania, w konsekwencji wielu użytkowników wykorzystujących narzędzia AI, nie jest świadomych tego z czym mają do czynienia, a tym bardziej jakie rodzi to zagrożenia”.

Tak dosadny wniosek ma „spędzać sen z powiek osób zajmujących się ochroną informacji”. Chodzi między innymi o udostępnianie w narzędziach takich jak np. ChatGPT informacji i materiałów służbowych czy danych wrażliwych, które w efekcie – nie dość, że służą do trenowania algorytmów – to jeszcze mogą prowadzić do wycieków danych i w rezultacie ich ujawnienia na szeroką skalę.

Czytaj też

Reklama

Cel użycia AI zależy od intencji

Co do tego, że sztuczna inteligencja przyniesie wiele szans rozwoju i nowych rozwiązań m.in. w biznesie czy na rynku pracy, nie ma wątpliwości. AI może być też wykorzystywana w cyberbezpieczeństwie, na polu bitwy, do automatyzacji procesów czy przez bezpieczników.

Wszystko jednak zależy od intencji. Stąd nie jest tajemnicą, że oszuści czy profesjonalni cyberprzestępcy już testują dostępne narzędzia do np. tworzenia oszukańczych treści (maile phishingowe czy scam). Choć oficjalnie powinno to być niemożliwe, w zasadzie dość łatwo da się ominąć „zabezpieczenia” przed produkowaniem tego typu materiałów.

Reklama

Deepfake. To już się dzieje

Jak wskazuje CSIRT KNF w swoim raporcie, w 2023 roku najczęściej sztuczna inteligencja pod kątem zagrożeń była wykorzystywana do nagrań wideo i stworzenia deepfake.

Najczęściej chodziło o stworzenie fałszywych materiałów, promujących oszustwa na fałszywe okazje inwestycyjne, próbujące naciągnąć ofiary przy pomocy socjotechniki i wizerunku znanych osób (polityków, sportowców, aktorów, celebrytów). Nagrania te są coraz bardziej wiarygodne, a z biegiem czasu – wraz z rozwojem istniejących narzędzi i pojawieniem się nowych – będą stawały się coraz lepsze.

Czytaj też

Reklama

Dodatkowo w ubiegłym roku pojawiły się już przypadki użycia sfałszowanych nagrań głosu (deepfake voice) z użyciem metody „na wnuczka” lub „na policjanta”. Do ofiar dzwonił wtedy fikcyjny funkcjonariusz, który przekazywał telefon „członkowi rodziny”, a w rzeczywistości był to oszust, którego głos został zmodyfikowany na wzór bliskiej osoby.

Jak podaje instytucja, powołując się na statystyki w Stanach Zjednoczonych, liczba przypadków wykorzystywania deepfake do oszustw wzrosła z 0,2 proc. do 2,6 proc. między 2022 rokiem, a I kwartałem 2023 roku.

Czytaj też

Narzędzia takie jak WormGPT czy FraudGPT niestety zyskują na popularności wśród cyberprzestępców, którzy wykorzystują je do tworzenia scenariuszy oszustw phishingowych, stron wyłudzających dane, a nawet złośliwych oprogramowań.

„W naszej ocenie rozwój narzędzi AI może przyczynić się do znacznego obniżenia progu wejścia w świat cyberprzestępczości” – ocenili eksperci.

Wzrost liczby domen phishingowych

Jak informowaliśmy, w raporcie rocznym zespół CSIRT KNF podał, że w 2023 r. zgłosił do zablokowania aż 30 140 domen phishingowych. Dla porównania w 2021 roku zidentyfikował ich 11 468; w 2022 roku - 17,2 tys.

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na:\*[email protected].\*

Reklama

Haertle: Każdego da się zhakować

Materiał sponsorowany

Komentarze

    Reklama