Cyberbezpieczeństwo
AI sieje dezinformację? Rosną obawy Pentagonu
„Generatywne modele językowe sztucznej inteligencji (np. ChatGPT) mówią płynnie i autorytatywnie. (…) To doskonałe narzędzia do dezinformacji” – powiedział Craig Martell, dyrektor ds. technologii cyfrowych i sztucznej inteligencji w Departamencie Obrony USA.
Przedstawiciel Pentagonu podczas niedawnej konferencji AFCEA TechNet Cyber w Baltimore zwracał uwagę na potencjalne zagrożenia wynikające z rozwoju generatywnych modeli językowych sztucznej inteligencji. Jego zdaniem są to narzędzia, które potrafią być przekonujące, ludzie często przyjmują ich zdanie jako fakt, a to oznacza, że mogą one skutecznie dezinformować.
Czytaj też
Konieczne narzędzie do wykrywania dezinformacji
Jak zauważa Martell, czat pytany przez nas czy możemy mu zaufać, odpowiada przecząco. Model językowy dodaje przy tym, że naszym obowiązkiem jest „odpowiednio zweryfikować" wygenerowane odpowiedzi. Oczywistym jest, że takiej weryfikacji nie będzie przeprowadzał każdy użytkownik sieci. Oznacza to, że wzrośnie ryzyko przekazywania treści dezinformujących.
Zdaniem Craiga Martella, obecna sytuacja zmusza nas do przyspieszenia prac nad narzędziem, które będzie w stanie wykrywać dezinformację wytworzoną przez AI - czytamy na BreakingDefence . Obecnie takiego narzędzia nie ma.
Czytaj też
"Paliwo dla hakerów"
O konferencji AFCEA TechNet Cyber w Baltimore zrobiło się głośno z powodu jeszcze jednej wypowiedzi. To wtedy Lt. Gen. Robert Skinner, dyrektor DISA (Defence Information Systems Agency) stwierdził, że AI „podniesie poprzeczkę dla amerykańskich zabezpieczeń". Według Skinnera sztuczna inteligencja sprawi m.in., że hakerzy „otrzymają paliwo" do bardziej skutecznych działań.
Jego zdaniem „ci, którzy wykorzystają \[AI\] i będą wiedzieć jak się przed tym chronić, będą tymi, którzy mają przewagę". Więcej na ten temat pisaliśmy w tym tekście .
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].
/MG