Reklama

Technologie

OpenAI: ChatGPT był wykorzystywany do 20 operacji wpływu

Najnowsza wersja GPT-4.0 wywołała niemałe kontrowersje. Wszystko za sprawą Scarlett Johansson, według której OpenAI wykorzystało jej głos bez zezwolenia.
Najnowsza wersja GPT-4.0 wywołała niemałe kontrowersje. Wszystko za sprawą Scarlett Johansson, według której OpenAI wykorzystało jej głos bez zezwolenia.
Autor. Levart_Photographer/Unsplash

OpenAI zakłóciła ponad 20 złośliwych operacji wpływu w ciągu ostatniego roku, w których sprawcy używali ChatuGPT do swoich działań. Jednocześnie firma twierdzi, że zagrożenia są łatwiejsze do wykrycia, jeśli atakujący używają do ich stworzenia właśnie tego modelu AI. Jaka jest prawda?

Gigant OpenAI wydał raport, w którym analizuje trendy w zakresie cyberzagrożeń z użyciem sztucznej inteligencji.

Jak czytamy, firma w ciągu roku zakłóciła ponad 20 operacji z całego świata, w ramach których próbowano wykorzystać jej model. Sztuczna inteligencja była używana do debugowania złośliwego oprogramowania, pisania artykułów i treści na strony internetowe podpisywane przez fałszywych autorów, dezinformacji, jak i tworzenia postów oraz fałszywych kont w mediach społecznościowych.

OpenAI przeanalizowało działania sprawców, by zrozumieć, w jaki sposób korzystają z ChatuGPT do swojej „pracy”. Ich zdaniem, trendy te z kolei mogą służyć do zbadania szerszego krajobrazu zagrożeń.

Czytaj też

Reklama

OpenAI: Brak przełomu

Z raportu, z którym się zapoznaliśmy wynika, że zdaniem firmy „sztuczna inteligencja zapewnia bezpiecznikom potężne możliwości identyfikowania i analizowania podejrzanych zachowań”. Od maja br. gigant aktualizował trzy nowe narzędzia oparte o AI, która mają pomagać w wykrywaniu i analizowaniu szkodliwych zachowań w znacznie krótszym czasie niż byłby w stanie samodzielnie zrobić to człowiek.

Cyberprzestępcy mieli wykorzystywać ChatGPT w „pośredniej” fazie aktywności, tj. nie na finalnym etapie działań nad schematem oszustwa. Nadal mają „eksperymentować” z modelami AI.

„Nie zaobserwowaliśmy dowodów na to, że AI prowadzi do znaczących przełomów w ich zdolnościach do tworzenia nowych złośliwych programów lub budowania szerokiej grupy odbiorców” – uważa firma.

Ten wniosek ma być zgodny z jej wcześniejszą oceną w kwestii zdolności GPT-4o, w zakresie wpływania na zwiększenie poziomu cyberprzestępczości poprzez modele AI.

Czytaj też

Reklama

Operacje wpływu na całym świecie

OpenAI w ostatnich miesiącach przerwało złośliwe operacje w USA, Rwandzie, Indiach i Unii Europejskiej, jednak miały one nie generować ani sporego zaangażowania, ani zasięgów.

Sama firma była też celem złośliwej operacji chińskiej grupy powiązanej z państwem, znanej jako SweetSpecter. Polegała na próbie wyłudzenia informacji z prywatnych i firmowych maili pracowników za pomocą metody ukierunkowanego phishingu.

Zdaniem serwisu Arstechnica, raport OpenAI bagatelizuje możliwości modeli AI do wyrządzania szkód. Czas pokaże, kto miał w tym zakresie rację.

Czytaj też

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama
Reklama
Reklama

Komentarze