Reklama

Cyberbezpieczeństwo

AI w rękach cyberprzestępców. Prognozy na 2025 rok

Zespół Google Cloud opublikował swoją prognozę cyberbezpieczeństwa na 2025 rok. W zakresie sztucznej inteligencji sytuacja nie rysuje się w kolorowych barwach.
Zespół Google Cloud opublikował swoją prognozę cyberbezpieczeństwa na 2025 rok. W zakresie sztucznej inteligencji sytuacja nie rysuje się w kolorowych barwach.
Autor. Gerd Altmann/Pixabay

W przyszłym roku cyberprzestępcy będą znacznie szerzej wykorzystywali sztuczną inteligencję w swoich działaniach – wynika z raportu Cybersecurity Forecast 2025 przygotowanego przez Google Cloud. Ma wzrosnąć zapotrzebowanie zarówno na aplikacje tworzące deepfake, jak również i duże modele językowe (LLM).

Rok 2024 powoli dobiega końca; rozpoczyna się jednocześnie czas podsumowań oraz przewidywań na kolejne 365 dni. Swoje założenia dotyczące cyberbezpieczeństwa przedstawił zespół Google Cloud w raporcie Cybersecurity Forecast 2025.

„Patrząc na nadchodzący rok, nigdy nie dokonujemy przewidywań. Zamiast tego przyglądamy się trendom i przedstawiamy realistyczne prognozy tego, czego możemy się spodziewać w świecie cyberbezpieczeństwa” – czytamy w dokumencie.

Czytaj też

Reklama

Więcej ataków z wykorzystaniem sztucznej inteligencji

Część dokumentu dotycząca sztucznej inteligencji nie zapowiada pozytywnie 2025 roku. Według tekstu, wykorzystanie narzędzi opartych o AI w prowadzeniu operacji przez aktorów zagrożeń ma w dalszym ciągu rosnąć. To samo ma dotyczyć tworzenia przez duże modele językowe (LLM) znacznie bardziej wiarygodnego phishingu na większą niż dotychczas skalę.

Dodatkowo, próby wykorzystywania sztucznej inteligencji m.in. do wykrywania podatności czy też tworzenia deepfake«ów w celu kradzieży tożsamości mają być poważnym problemem dla przedsiębiorstw.

„W miarę jak możliwości AI będą szerzej dostępne w 2025 roku, podmioty będą miały coraz większe trudności z obroną przed tymi częstszymi i skuteczniejszymi działaniami” – napisali eksperci.

Czytaj też

Reklama

Dezinformacja pozostanie problemem

Swój ślad w 2025 roku mają także zostawić aktorzy prowadzący operacje informacyjne. Jednym z przełomowych momentów było przejście zgenerative adversarial network (GAN) na LLM. Zwiększyło to skalę dezinformacji i ulepszyło możliwości kamuflowania fałszywych treści.

Według załogi Google Cloud, problem ma się utrzymać. „Aktorzy prawdopodobnie będą wykorzystywać szerzej dostępne narzędzia sztucznej inteligencji do różnych celów, w tym do tworzenia bardziej przekonujących treści i wzmacniania wizerunku fikcyjnych osób” – czytamy w dokumencie.

Czytaj też

Reklama

Przyszły rok początkiem półautomatyzacji

W ocenie ekspertów, 2024 rok upłynął pod znakiem zastosowania AI w demokratyzacji bezpieczeństwa za sprawą automatyzacji podsumowywania raportów czy przeszukiwania baz danych. Pozwoliło to z kolei na zwiększenie efektywności prowadzonych działań.

Najbliższe 12 miesięcy ma być z kolei okresem początkowym dla półautomatycznych operacji w tym zakresie. Do tego będą potrzebne wystarczająco duże możliwości w pracy wykonywanej przez systemy.

„Nadal musi istnieć człowiek, który może teraz osiągnąć znacznie więcej przy wsparciu sztucznej inteligencji. Obejmuje to możliwość analizowania alertów - nawet w przypadku fałszywych alarmów, co umożliwi zespołom ds. bezpieczeństwa dalsze działania ws. najważniejszych zagrożeń” – podsumowali kwestię AI przedstawiciele Google Cloud.

Czytaj też

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na:[email protected].

Reklama

Haertle: Każdego da się zhakować

Materiał sponsorowany

Komentarze

    Reklama