Armia i Służby
ChatGPT używany w Departamencie Obrony. Co z bezpieczeństwem danych?
Pracownicy australijskiego Departamentu Obrony używali chatbota OpenAI „tysiące razy” bez zgody, choć powszechnie wiadomo, że tego typu rozwiązania stanowią spore ryzyko ze względu na gromadzenie i przetwarzanie danych. Przez nieco ponad pół roku korzystano z niego ponad 5 tys. razy.
Wiele razy oficjalnie przestrzegano przed używaniem ChatuGPT w kontekście dzielenia się z chatbotem wrażliwymi danymi. Przed tym faktem ostrzegały nawet same Big Techy, które swoim pracownikom zalecały, by najlepiej nie korzystać z narzędzi konkurencji, albo nie podawać w konwersacji żadnych istotnych informacji, szczególnie prywatnych czy firmowych.
Jak się okazuje, ostrożności nie zachowali jednak pracownicy australijskiego Departamentu Obrony, którzy bez zgody instytucji „tysiące razy” korzystali z domeny OpenAI , od czasu kiedy była ona publicznie dostępna – ujawnia australijski serwis Crikey.com.
Jak czytamy, komputery i smartfony australijskiego Departamentu Obrony między 1 grudnia 2022 roku a 30 czerwca 2023 roku łączyły się z domeną OpenAI(.)com aż 5630 razy. Z dokumentów do których dotarli dziennikarze wynika, że połączenie uzyskiwano za pomocą strony internetowej, co wyklucza korzystanie z aplikacji na smartfony (dostępnej również od jakiegoś czasu - red.).
Czytaj też
Czy wojskowi mogą korzystać z ChatuGPT?
Przedstawiciel Departamentu Obrony w odpowiedzi dla redakcji stwierdził, że nie zatwierdzono dostępu do produktów OpenAI, a pracownicy mają „ograniczony dostęp do internetowych usług AI, takich jak ChatGPT na urządzeniach służbowych”. Powodem ma być oczywiście konieczność kontroli informacji niejawnych, troska o prywatność oraz o ewentualne ryzyko związane z wprowadzaniem tego typu danych do okna czatu.
Wspomniane 5630 połączeń z domeną OpenAI ma natomiast dotyczyć korzystania z ChatuGPT jeszcze przed wydaniem decyzji Departamentu Obrony o ograniczeniu dostępu do chatbotów. Resort nie odpowiedział jednak między innymi, kiedy dokładnie wprowadzono zasady zwiększonej kontroli i wspomniane ograniczenia, by złagodzić potencjalne ryzyko naruszenia danych.
Czytaj też
Potrzebne regulacje
Co trzeba podkreślić, do tej pory nie wydano ogólnorządowych rekomendacji dla Departamentów, które dotyczyłyby korzystania z tego typu produktów, jak ten autorstwa OpenAI.
Z pewnością tego typu regulacje/ zalecenia byłyby przydatne ze względu właśnie na obawy związane z bezpieczeństwem informacji. Szybki rozwój narzędzi opartych o sztuczną inteligencję pokazał, że troska o gromadzenie, wykorzystywanie, przetwarzanie i ewentualny wyciek danych zawsze ma swoje uzasadnienie.
Kolejną kwestią jest fakt, że ChatGPT (jak i inne chatboty) mogą być wykorzystywane przez cyberprzestępców do np. generowania wiadomości phishingowych czy służyć do cyberataków, znacznie ułatwiając ich przeprowadzenie oraz szybkość przygotowania. Stąd pracownicy w jednostkach wojskowych powinni zachować szczególną ostrożność w czasie testowania tego typu rozwiązań .
Czytaj też
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].