Reklama

Cyberbezpieczeństwo

AI wykorzystywana w aplikacjach randkowych. Sztuczna inteligencja pomoże oszustom?

Autor. freestocks/Unsplash

Narzędzia generatywnej sztucznej inteligencji są już wykorzystywane do tworzenia profili na poszczególnych platformach randkowych. Problemem jest to, że są coraz trudniejsze do zidentyfikowania.

Reklama

Tzw. romance scammers używają ChatuGPT do tworzenia fałszywych profili randkowych na takich platformach jak Tinder, Badoo czy Facebook – informuje The Record. Dzięki wspomnianym profilom, oszuści pozyskują dane od użytkowników (zdjęcia, fragmenty rozmów, itd.) a zdobyte informacje wykorzystują m.in. do tworzenia kolejnych fałszywych kont.

Reklama

Czytaj też

Reklama

Co potrafi miłość wspomagana chatbotem?

Z badań przeprowadzonych przez Avast wynika, że chatbot o umownej nazwie „LoveGPT” (jak nazwali go badacze) potrafi sprawdzać skrzynkę odbiorczą na danej platformie, umie odpowiadać na wiadomości oraz prowadzić rozmowy według określonych szablonów.

Tym, co w sposób szczególny budzi niepokój badaczy jest fakt, że konwersacje prowadzone przez chatbota brzmią wyjątkowo autentycznie. Narzędzie posiada dużą umiejętność naśladowania interakcji międzyludzkich, a także zdolności adaptacyjne.

Po co to wszystko? Przede wszystkim ze względu na dane. To one mogą być później wykorzystane do „zarobienia” przez oszusta. Więcej na temat oszustw matrymonialnych można przeczytać w naszym tekście, który był analizą poradnika NASK „Internetowe Love. Jak zadbać o swoje cyberbezpieczeństwo w relacjach online 2023/24”.

Czytaj też

Ostrożność to podstawa

Jak zmniejszyć ryzyko „nabrania się” na romance scam? Pierwszą, podstawową zasadą powinna być pewna doza podejrzliwości. Randkująca osoba szybko prosi nas o dane osobowe? Łatwo i szybko dzieli się swoimi historiami osobistymi? Powinny to być alerty ostrzegawcze.

Sieć to miejsce, gdzie powinna nas obowiązywać zasada ograniczonego zaufania. Dlatego też bezpieczeństwo powinno przyświecać użytkownikom w pierwszej kolejności. Pamiętajmy o tym, aby pod żadnym pozorem nie dzielić się naszymi danymi osobowymi (np. adresem zamieszkania, miejscem pracy). Każda taka informacja w niepowołanych rękach może być wykorzystana przeciwko nam.

AI i przestępcy

Warto pamiętać, że AI może być wykorzystywane przez cyberprzestępców również w inny sposób (np. do tworzenia fałszywych maili phishingowych). Więcej o tym, jak cyberprzestępcy mogą wykorzystywać np. narzędzia sztucznej inteligencji i o tym, co chcą w ten sposób uzyskać, pisaliśmy m.in. w tym tekście.

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Komentarze

    Reklama