Cyberbezpieczeństwo
#CyberMagazyn: Sztuczna inteligencja. Wmocni cyberbezpieczeństwo czy zwiększy liczbę cyberataków?
Sztuczna inteligencja to zdecydowanie najgorętszy trend tego roku w branży nowych technologii za sprawą wyrastających jak grzyby po deszczu chatbotów. Jedni sądzą, że jest szansą; inni - zagrożeniem. Czy wzmocni cyberbezpieczeństwo? A może ułatwi działalność cyberprzestępców?
Nie tak dawno, bo zaledwie kilkanaście dni temu Centrum Bezpieczeństwa AI (Center for AI Safety) ostrzegało przed „katastrofalnym ryzykiem stawarzanym przez AI”. Pod stwierdzeniem, że „zmniejszenie ryzyka wyginięcia przez sztuczną inteligencję powinno być globalnym priorytetem obok innych zagrożeń na skalę całych społeczeństw, takich jak pandemie i wojna nuklearna” – po tymi słowami podpisali się dziennikarze, decydenci, eksperci sztucznej inteligencji.
Wśród znanych nazwisk pojawili się między innymi Demis Hassabis - szef Google DeepMind; prof. Geoffrey Hinton zwany „ojcem sztucznej inteligencji”; Sam Altman – twórca OpenAI i ChatuGPT; Bill Gates; Kevin Scott – CTO Microsoft; Wojciech Zaremba - współtwórca OpenAI.
Szansa czy zagrożenie?
Zdania ekspertów w kwestii tego, czy AI będzie szansą czy zagrożeniem są podzielone. Trzeba zwrócić uwagę, że trudno zająć w tej sprawie jednoznaczne stanowisko – nawet w branży cyberbezpieczeństwa, gdzie AI przyczynia się do rozwoju wielu innowacyjnych projektów biznesowych, czy o profilu militarnym. Już dziś rozwiązania oparte na sztucznej inteligencji wykorzystuje się w tzw. „tradycyjnych” domenach, ale i w cyberprzestrzeni.
Z jednej strony AI może służyć jako narzędzie w cyberbezpieczeństwie, ale np. chatboty mogą być jednocześnie celem ataków i same przyczyniać się do ataków, np. tworzenia złośliwego oprogramowania. Przy ich pomocy wygenerowanie złośliwego kodu czy wiadomości phishingowej jest przecież zdecydowanie szybsze i łatwiejsze.
Anne Neuberger, zastępczyni doradcy ds. bezpieczeństwa narodowego USA, w rozmowie z serwisem Cyberscoop zwraca uwagę, że jej obawy wzbudza możliwość projektowania złośliwego oprogramowania, tworzenia bardziej precyzyjnych deepfake’ów, wykorzystywanie AI do spear-phishingu czy do potencjalnego skonstruowania broni biologicznej. Według niej obawy budzi też m.in. fakt, że może „umożliwić skuteczniejsze i szybsze cyberataki oraz precyzyjniejszą dezinformację”.
Jej zdaniem AI – „zwłaszcza duże modele językowe - stanowią ogromne zagrożenie dla naszych społeczeństw, naszych gospodarek i naszego bezpieczeństwa narodowego”, dlatego trzeba mieć pewność, że czerpie się korzyści dla gospodarek, ale też „pracuje nad zarządzeniem zagrożeniami”.
„Technologia (sztuczna inteligencja - red.) jest bardzo potężna i ma elementy, których nie rozumiemy” – stwierdziła Anne Neuberger.
Jak dodała: „Chcę jasno powiedzieć, że sztuczna inteligencja przedstawia nowe i poważne zagrożenia, z których wiele nie do końca rozumiemy, jak się rozegrają. Myślę, że musimy dokładnie przemyśleć te kwestie w ścisłej współpracy z firmami budującymi te technologie, które znają je najlepiej i mogą uruchomić Read Team i ochronę, które będą kluczowe”. $$
AI nie taka przełomowa?
Na podobne aspekty zwracała w rozmowie z nami prof. Agnieszka Gryszczyńska, dyrektor Departamentu ds. cyberprzestępczości i informatyzacji w Prokuraturze Krajowej, w jednym z odcinków programu „Prosto o cyber” na naszym kanale YouTube.
Jej zdaniem, wśród ekspertów ds. zwalczania cyberprzestępczości rozmowy na ten temat toczyły się już kilka lat temu, ale od tego czasu „nie wydarzyło się nic przełomowego”. Dlaczego? Cyberprzestępcy nie używają na razie AI na dużą skalę, ponieważ nadal skuteczne są najprostsze metody socjotechniczne.
„Jeżeli nadal ludzie wierzą w księcia z krajów Afryki i nadal są skłonni dopłacić 50 groszy do przesyłki (i jest to skuteczne – red.), to sprawcy optymalizują swój model działania. Po co mają uczyć się czegoś nowego i inwestować w to swoje środki, skoro działają proste ataki” – zaznaczyła prof. Agnieszka Gryszczyńska.
Dodaje jednak, że w ostatnim czasie prokuratura miała do czynienia z kilkoma atakami, w których sztuczna inteligencja została użyta jako wsparcie.
„Nadal niewiele jest udokumentowanych ataków na sztuczną inteligencję, bo należy rozgraniczyć dwie kwestie: wykorzystanie sztucznej inteligencji, uczenia maszynowego do atakowania i ataki na algorytmy, dane, które mogą wywołać różne skutki np. na autonomiczny samochód” – usłyszeliśmy.
Spoofing i deepfake
Prof. Agnieszka Gryszczyńska podkreśliła jednak, że znacznie bardziej boi się ataków, które będą łączyły spoofing (podszywanie się pod inną osobę np. telefonicznie) z deepfake.
„ Na przykład z deep voice, czyli to nie tylko sytuacja, kiedy dzwoni do nas osoba podszywająca się dokładnie pod kogoś z naszej książki adresowej, ale też kiedy słyszymy dokładnie ten sam głos (wygenerowany przy pomocy AI – red.) – podsumowała.
Czytaj też
Jak informowaliśmy w piątek na łamach CyberDefence24.pl.pl, prezydent Andrzej Duda podpisał ustawę o zwalczaniu nadużyć w komunikacji elektronicznej. Dzięki nowym regulacjom operatorzy telekomunikacyjni zyskają nowe obowiązki dotyczące walki z nadużyciami, takimi jak spoofing czy smishing.
Czy realnie zmniejszy to skalę problemu? Czas pokaże. Jedno jest pewne – z pewnością wraz z rozwojem nowych technologii i kolejnych systemów wykorzystujących AI eksperci cyberbezpieczeństwa będą mieli ręce pełne roboty.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].