Cyberbezpieczeństwo
ChatGPT pomoże cyberprzestępcom? "To nastąpi prędzej czy później"
Każdy kolejny miesiąc przynosi zmiany w metodach cyberprzestępców. Ostatnie miesiące i wyjątkowa popularność AI sprawiają, że rodzi się pytanie, czy narzędzia sztucznej inteligencji znacząco nie ułatwią pracy tych, którzy zajmują się oszukiwaniem innych w sieci.
Przy okazji pokoju twitterowego organizowanego przez redakcję CyberDefence24 w poniedziałek 8 maja ( link dostępny TUTAJ ), debatowano na temat problemu przestępstw internetowych.
Jednym z poruszonych wątków były nowe technologie i ich zastosowanie przez oszustów w sieci. Czy zyskujące na popularności chatboty, w tym najbardziej „medialny" ChatGPT, są już teraz wykorzystywane w nieuczciwych kampaniach w sieci?
Czytaj też
"Zatrucie" chatbotów
Paweł Piekutowski z CSIRT KNF potwierdził podczas poniedziałkowej debaty w Twitter Spaces, że jego zespół zajmuje się monitoringiem tego, jak nowe technologie mogą być wykorzystywane przez cyberprzestępców.
Zdaniem Piekutowskiego, istnieje spore zagrożenie, że oszuści będą próbowali „zatruwać" wyniki wygenerowane przez AI. Owo zatrucie ma polegać na podawaniu chatbotom treści, które mogą kształtować ich odpowiedzi. Dzięki temu generatory sztucznej inteligencji - odpowiadając na pytanie - będą mogły odsyłać użytkowników chociażby do stron phishingowych.
Więcej na temat "zatruwania studni", którą są generatory sztucznej inteligencji mówiliśmy w programie "Pułapki Sieci", kiedy naszym rozmówcą był dr Tomasz Rożek. Cała rozmowa dostępna jest w linku poniżej:
Jak powiedział przedstawiciel CSIRT KNF, instytucja weryfikuje teraz czy w przypadku chatbotów może dojść do podobnej sytuacji, jak w przypadku wyszukiwarek internetowych, które niejednokrotnie w swoich wynikach potrafią podać strony odsyłające do stron phishingowych. „Na chwilę obecną tego nie widzimy. Nie ukrywamy, że w przyszłości może się to zdarzyć. Widzimy natomiast schematy oszustw, w których wykorzystywany jest wizerunek ChatuGPT (...)" – powiedział Paweł Piekutowski.
Czytaj też
Kwestia czasu
Z kolei zdaniem Adama Majchrzaka ze Stowarzyszenia Demagog kwestią czasu jest fakt, że sztuczna inteligencja będzie ułatwiać pracę internetowych oszustów. „Ona przyniesie pewną automatyzację, może nadać (tym działaniom) większy rozmach" – stwierdził Majchrzak, dodając, że AI może też wytworzyć więcej scenariuszy zachęcających internautów do klikania w niebezpieczne dla linki (phishing - red.).
Czytaj też
AI to kolejne narzędzie
O dodatkowy komentarz poprosiliśmy także zespół CERT Polska. Zdaniem Iwony Prószyńskiej, specjalistki ds. komunikacji w obszarze cyberbezpieczeństwa w tej instytucji, nie możemy zapominać o tym, że kluczem w całej sprawie jest to, że chatboty to po prostu kolejne narzędzia w rękach przestępców, a za nimi zawsze stoi człowiek, który będzie próbował obejść mechanizmy bezpieczeństwa.
Według naszej rozmówczyni jest za wcześnie, by wyodrębnić oddzielną kategorię zagrożenia w sieci, którą miałaby być sztuczna inteligencja. "Co więcej, ChatGPT jest już w pewnych obszarach na tyle doprecyzowanym narzędziem, że jest praktycznie niemożliwe, by stwierdzić, czy dany cyberprzestępca zastosował go w danym kontekście" – skomentowała Iwona Prószyńska.
„Trzeba złapać przestępcę za rękę, a to domena policji" – dodała. To z tego powodu niemożliwe jest podanie jakichkolwiek liczb dotyczących ewentualnych przestępstw dokonanych przy użyciu sztucznej inteligencji.
Nie ulega wątpliwości, że problemy wynikające z korzystania z AI w sposób niegodny będą pojawiać się w przestrzeni publicznej coraz częściej. Na ich temat będziemy na bieżąco informować na łamach naszego portalu.
Czytaj też
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].
Haertle: Każdego da się zhakować
Materiał sponsorowany