Reklama

Artykuł stworzony przez AI zmyślił ataki ransomware na polskie organizacje

Artykuły generowane przez AI są wykorzystywane przez… AI
Artykuły generowane przez AI są wykorzystywane przez… AI
Autor. Freepik.com

Każdy z nas wie, że nie powinniśmy ufać sztucznej inteligencji „na słowo”. Warto jednak zaznaczyć, że w sieci można znaleźć artykuły pozornie prawdziwych stron internetowych, gdzie treści są wyraźnie generowane przez AI. Nie przeszkadza to jednak kolejnym osobom w publikowaniu fałszywych treści.

To nie pierwszy taki przypadek związany z cyberbezpieczeństwem. W maju 2025 r. informowaliśmy o artykule wygenerowanym przez chatbota, który opisywał fałszywy atak ransomware na duży polski bank. Tym razem oprócz kłamliwej treści, artykuł zawiera również najprawdopodobniej m.in. nieprawdziwe imiona i nazwiska, zaś wiele ważnych podstron jest po prostu pustych.

Czytaj też

Reklama

Jak znaleźć kłamstwo w sieci

Podczas pisania artykułu o ataku ransomware na polski podmiot medyczny, poprosiliśmy model o3 ChatGPT o podanie podobnych przykładów ataków wraz z wylistowaniem źródeł. Pięć pierwszych wyników odnosiło się do prawdziwych treści, zamieszczonych na powszechnie znanych portalach, m.in. Sekuraku czy Dzienniku Gazecie Prawnej.

Szósty wynik to artykuł o ciekawym tytule. Nie podajemy nazwy portalu w celu niepromowania jej przez wyszukiwarki.

Wyniki pochodzące z zapytania skierowanego do ChatGPT o3
Wyniki pochodzące z zapytania skierowanego do ChatGPT o3
Autor. ChatGPT

Generowanie tekstów przez AI

Po otwarciu artykułu możemy zobaczyć, że posiada on dwóch autorów. Czasem takie sytuacje mogą się zdarzać, np. przez przeoczenie. Problem w tym, że osoby opisane w artykule mogą po prostu nie istnieć – choć nie można tego jednoznacznie stwierdzić, wskazuje na to m.in. brak cyfrowych śladów. Jedynym miejscem bytowania portalu w mediach społecznościowych są linki do niego na fanpage’u podmiotu, który odpowiada za stronę (spółki z o.o.). W postach również możemy znaleźć dość przesadzone stwierdzenia o ogromnych wyciekach.

Rozbieżność autorów
Rozbieżność autorów
Autor. Portal z fałszywą treścią
Fragment posta z 14 czerwca
Fragment posta z 14 czerwca
Autor. Facebook.com

Wczytując się w artykuł możemy znaleźć wiele fragmentów, które wskazują na to, że tekst został automatycznie wygenerowany przez AI. Warto też dodać, że omawiany artykuł nie posiada żadnych linków zewnętrznych czy źródeł.

Przy próbie kliknięcia w odnośnik do jakiejkolwiek podstrony, wyświetlany jest poniższy komunikat, uniemożliwiający eksplorowanie witryny:

Komunikat
Komunikat
Autor. Strona z fałszywą treścią

Można jednak obejść ten pop-up poprzez wpisanie „view-source:” w pasku przeglądarki oraz wybranie odpowiedniego linku (lub wejście na daną podstronę poprzez wyszukiwarkę Google). Okazało się, że niestety witryna nie ma regulaminu – podstrona jest pusta. Nie wiadomo również od kiedy obowiązuje polityka prywatności.

Zrzut ekranu fragmentu polityki prywatności
Zrzut ekranu fragmentu polityki prywatności
Autor. Strona z fałszywą treścią

Czytaj też

Reklama

Fałszywe ataki ransomware

Abstrahując od wymienionych wyżej informacji, kluczowa jest treść artykułu. Poniżej znajduje się fragment, który znacząco przykuł naszą uwagę.

Fragment zawierający fałszywe informacje
Fragment zawierający fałszywe informacje
Autor. Strona z fałszywą treścią / Pixabay.com (napis)

Punkt pierwszy opisuje zdarzenie które faktycznie miało miejsce, lecz nie w 2024 roku, tylko dwa lata wcześniej. Ciekawie zaczyna się przy punkcie drugim – w listopadzie 2024 roku nie było żadnego szerzej omawianego cyberataku na wspomniany szpital powiatowy w mieście wymienionym na zrzucie ekranu, zaś o placówce było głośno w kwietniu br. z powodów politycznych i moralnych.

W punkcie trzecim skala, data oraz atrybucja ataku są kłamstwem. Incydent faktycznie miał miejsce (w Medily), lecz to nie zmienia faktu, że informacja jest fałszywa. Punkt czwarty najprawdopodobniej miał dotyczyć ataku ransomware na Szpital MSWiA w Krakowie, lecz… odnosi się do innej placówki.

Czytaj też

Reklama

Podsumowanie

Czy możemy zaufać AI? Na pewno możemy weryfikować źródła informacji, które są podawane przez modele.

Zgłosiliśmy szerzenie dezinformacji do CERT Polska – na przykładzie ostatniego zdarzenia z fałszywym atakiem na bank dobrze widać, że można walczyć z fałszywymi treściami.

„Kaczki dziennikarskie” zdarzają się, lecz zamieszczanie treści wygenerowanej przez AI w Internecie bez uprzedniej weryfikacji, to delikatnie mówiąc… ignorancja skutkująca wprowadzaniem w błąd.

Czyżby tzw. „vibe coding” był preludium do automatycznie generowanych artykułów na ogólnopolskich portalach? Miejmy nadzieję, że nie.

Czytaj też

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama
Reklama

SK@NER: Jak przestępcy czyszczą nasze konta?

Komentarze

    Reklama