Technologie
#CyberMagazyn: ChatGPT i sztuczna inteligencja. Narzędzie cyberprzestępców
Narzędzia, takie jak ChatGPT w wielu obszarach okazują się pomocne i dają szansę na usprawnienie licznych procesów. To również ciekawe „umilacze czasu” dostarczające rozrywkę. Działają jak magnes na naszą ciekawość. Jednak po drugiej stronie znajdują się wyzwania, których zbagatelizowanie odbije się na naszym bezpieczeństwie.
W ostatnich tygodniach wiele miejsca poświęca się rozwiązaniu opracowanemu przez firmę OpenAI, które zdaniem części ekspertów należy uznać za przełomowe ze względu na możliwości, jakie ze sobą niesie. Mowa o ChatGPT, który bazuje na technologii sztucznej inteligencji.
Media społecznościowe oraz tradycyjne kanały informacyjne zalała fala wpisów poświęconych rozwiązaniu OpenAI. Użytkownicy dzielili się efektami zabawy z chatbotem. Można z nim porozmawiać na różne tematy, np. poprosić o przepis na ciasto, podyskutować o historii czy geopolityce, kończąc na debacie - kto i dlaczego jest najlepszym piłkarzem świata.
Jak informowaliśmy, w połowie marca pojawiła się czwarta wersja ChatuGPT, która ma być jeszcze bardziej dopracowana. Na tym się z pewnością nie skończy – szykowane są kolejne.
Pamiętajmy, że tego typu rozwiązania – jak każda technologia – są i będą wykorzystywane zarówno do dobrych, jak i złych celów. To z kolei sprawia, że przed nami spore wyzwanie do pokonania. Również w obszarze cyberbezpieczeństwa.
Czytaj też
Narzędzie pomocne dla hakerów
Rozwiązanie OpenAI zwróciło uwagę na kwestię zagrożeń. Jednym z nich jest możliwość wykorzystania narzędzi takich jak ChatGPT do generowania kodu przez cyberprzestępców oraz ugrupowania hakerskie. Dzięki temu jest to proces mniej czasochłonny, kosztowny i niewymagający zaangażowania oraz pracy specjalistów.
Przykładowo, sprawcy mogą wykorzystać ChatGPT do napisania kodu, który wygeneruje wiadomości phishingowedo setek, tysięcy i więcej osób. Ich treść może przypominać komunikat firmy, reklamę operatora itd. z zamieszczonym w środku linkiem, przenoszącym użytkowników na złośliwą stronę. Dzięki technologii sztucznej inteligencji rozsyłane wiadomości mogą być „lepszej jakości", bardziej przekonującedla przeciętnego użytkownika, a tym samym stać się skutecznym wabikiem.
Jak tłumaczy cytowany przez Venture Beat wiceprezes i dyrektor ds. technologii w McAfee – Stave Grobman, w tego typu przypadkach sam w sobie kod napisany przez narzędzie nie jest „złośliwy", ale służy do rozsyłania niebezpiecznych treści.
Czytaj też
Więcej, szybciej, skuteczniej
Zdaniem Roba Hughesa, dyrektora ds. bezpieczeństwa informacji w RSA, choć ChatGPT nie generuje nowych zagrożeń, to jednak prowadzi do ich „skalowania, przyspieszenia i ulepszenia", co widoczne jest w szczególności na opisanym wyżej przykładzie phishingu. Efekt?
Można spodziewać się np. zwiększenia częstotliwości kampanii phishingowych, ich bardziej dopracowanym i masowym charkaterze. Narzędzia bazujące na technologii AI już teraz obniżają próg wejścia dla cyberprzestępców, co naraża nas na dodatkowe ryzyko. Jednak tego typu rozwiązania nie stworzą na razie nowych metod ataków.
Czytaj też
Potrzebujemy kompetentne osoby
Widzimy więc, że narzędzia à la ChatGPT będą oddziaływały na nasze cyberbezpieczeństwo. Z tego względu nie należy bagatelizować ich znaczenia i wpływu. Wynika to nie tylko z faktu, że już teraz złośliwi aktorzy sięgają po np. rozwiązanie OpenAI, aby usprawnić prowadzenie wrogich kampanii. Problem jest znacznie szerszy i dotyczy generalnie rozwoju technologii sztucznej inteligencji (AI) oraz uczenia maszynowego.
Tego typu rozwiązania odmienią zarówno krajobraz zagrożeń, jak i sposoby ochrony oraz obrony przed nimi. Cyberataki prowadzone i kontrolowane przez AI to nie jest wyłącznie scenariusz z filmów science-fiction. W związku z tym, już teraz należy rozwijać kompetencje w tym obszarze.
Specjaliści od cyberbezpieczeństwa, cyberobrony itp. muszą patrzeć w przód i przyjąć długowzroczną perspektywę, abyśmy z czasem posiadali na tak wrażliwych i kluczowych stanowiskach kompetentne osoby, posiadające wiedzę oraz zdolności do działania w świecie sztucznej inteligencji.
Czytaj też
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].
Haertle: Każdego da się zhakować
Materiał sponsorowany