Reklama

Cyberbezpieczeństwo

ChatGPT kłamie o wojsku. Analitycy mogą spać spokojnie 

Ćwiczenia Anakonda'23
Ćwiczenia Anakonda'23
Autor. Dowództwo Operacyjne/ Twitter

Zainteresowanie ChatemGPT, czyli chatbotem od OpenAI, nie słabnie. O pozytywnym kontekście jego użycia wypowiadają się często marketingowcy, programiści, eksperci ds. nowych technologii. Prawda jest jednak taka, że choć może być pomocny w pracy – przy rutynowych czynnościach czy szybszym szukaniu informacji, wciąż nic nie zastąpi wiedzy i krytycznego myślenia. Analitycy, którzy zajmują się tematyką wojskową czy cyberbezpieczeństwem raczej mogą spać spokojnie. Dlaczego?

Reklama

ChatGPT w wersji darmowej (model 3,5) wciąż generuje odpowiedzi, które wprowadzają w błąd. Pisząc wprost: są po prostu nieprawdziwe. Choć sami twórcy tego dużego modelu językowego na stronie startowej chatbota zaznaczyli, że „czasami może on generować nieprawidłowe informacje”, „szkodliwe instrukcje i stronnicze treści” i ma „ograniczoną wiedzę o świecie i wydarzeniach po 2021 roku” to może nie wystarczyć, by uchronić świat internetu przed zalaniem spamem i fałszywymi informacjami.

Reklama

Jak pisaliśmy na łamach CyberDefence24.pl, okazuje się, że AI jest wykorzystywana coraz częściej do wytwarzania spamu czy pisania fałszywych recenzji. Po czym można to poznać? Korzystający z chatbota nawet nie zadają sobie trudu, by usunąć sformułowanie: „Jako model języka sztucznej inteligencji (...)", które generuje AI.

Z kolei przypadków mechanizmu „kopiuj-wklej” musi być zdecydowanie więcej, ponieważ takie treści nie są w żaden sposób oznaczane jako „wygenerowane przez sztuczną inteligencję”. Zatem jeśli ktoś usunie wspomnianą frazę, osoba postronna raczej nie zorientuje się, że to nie twórca, a chatbot jest autorem określonego tekstu.

Reklama

Czytaj też

ChatGPT kłamie o wojsku

Zdecydowaliśmy się sprawdzić, co ChatGPT wie o sprawach powiązanych z tematyką wojskową czy cyberbezpieczeństwem. Wniosek jest jeden: wciąż nic nie zastąpi krytycznego myślenia, wiedzy i umysłu człowieka.

Pomijając fakt, że sam przyznaje, iż nie posiada aktualnej wiedzy i może się mylić, innym aspektem jest dziecinnie proste wprowadzenie go w błąd – za każdym razem, kiedy odpowiemy chatbotowi, że nie ma racji (bez względu na to czy tak jest) zaczyna przepraszać i wycofywać się z wcześniejszych odpowiedzi. Jednocześnie prosi o podanie poprawnych danych – by mógł się uczyć z informacji udostępnionych przez użytkowników – które nie muszą być przecież poprawne.

Przykłady naszych konwersacji znajdują się poniżej:

ChatGPT podał niepoprawną datę powstania DKWOC
ChatGPT podał niepoprawną datę powstania DKWOC
Autor. fot. ChatGPT/ CyberDefence24
ChatGPT potwierdza, że nie posiada dostępu do aktualnych informacji
ChatGPT potwierdza, że nie posiada dostępu do aktualnych informacji
Autor. chatGPT / CyberDefence24.pl
Przykład niepoprawnych informacji za które przeprasza ChatGPT
Przykład niepoprawnych informacji za które przeprasza ChatGPT
Autor. ChatGPT / CyberDefence24
Błędne informacje podane przez ChatGPT
Błędne informacje podane przez ChatGPT
Autor. ChatGPT/ CyberDefence24

„Jeśli poziom zaawansowania sztucznej inteligencji ocenialibyśmy na postawie odpowiedzi udzielanych przez ChatGPT 3,5 i innych dostępnych publicznie rozwiązań, to zarówno analitycy wywiadu, analitycy wojskowi, analitycy obronności oraz dziennikarze i eksperci mogą spać spokojnie – rzetelna wiedza i lata doświadczeń nadal bronią się doskonale. Pamiętajmy bowiem, że modele tworzone przez firmy z branży ICT bazują na informacjach ogólnie odstępnych np. w globalnej sieci i na tej podstawie przygotowują odpowiedzi. Na dziś są do dane nieaktualne, niepełne i często błędne. Widzimy, że odpowiedzi opracowane na tej podstawie są niepoprawne, czego dowodem jest kilka przedstawionych wątków” – zaznacza Piotr Jaszczuk, analityk Defence24, który częściowo wygenerował – wspólnie z nami – wskazane wyżej odpowiedzi.

Jak dodaje, to co obserwujemy w sferze publicznej, dzięki powszechnemu zainteresowaniu AI, wywołanemu m.in. ChatemGPT, Bardem i pozostałymi narzędziami to tylko >>czubek góry lodowej<<. „Niewątpliwie w laboratoriach badawczych firm technologicznych oraz uczelni trwają o wiele bardziej zaawansowane prace, którym bez wątpienia przyglądają się służby specjalne. Jeśli rozwiązania bazujące na AI zasilane są solidnymi i sprawdzonymi danymi wejściowymi np. z opracowań naukowych i statystycznych, to uzyskane wyniki będą niewątpliwie bardziej wartościowe. I tu pojawia się olbrzymi potencjał, szansa i zagrożenia” – podkreśla.

Czytaj też

Co dzieje się z naszymi danymi?

Przy tej okazji trzeba pamiętać, że po pierwsze: wszystkie duże firmy technologiczne przestrzegały swoich pracowników przed wprowadzaniem do chatbota wrażliwych danych i informacji (zarówno prywatnych, jak i firmowych). Nie tylko ze względu na fakt, że nie powinniśmy ich podawać za pośrednictwem jakiejkolwiek platformy czy narzędzia, ale także z tego powodu iż - na dobrą sprawę - do tej pory niewiele było wiadomo na temat pozyskiwania informacji i ich przechowywaniu przez wspomniany chatbot OpenAI.

Dopiero z końcem kwietnia br. OpenAI poinformowała, że zmienia ustawienia prywatności danych i daje użytkownikom możliwość wyboru czy chcą wyłączyć historię konwersacji w ChatGPT. W ten sposób – po wybraniu opcji „wyłączenia historii czatu” – takie konwersacje nie będą zapisywane i wykorzystywane do trenowania i ulepszania tego modelu AI. „Niezapisane” czaty mają być całkowicie usuwane z systemu firmy po upływie 30 dni. Co warto jednak zaznaczyć - ta funkcja została włączona zdecydowanie za późno – po tym, jak z chatbota korzysta już ponad 100 mln użytkowników na świecie.

Czytaj też

Wersja płatna a bezpłatna

Niewykluczone, że rzeczywiście – wedle zapowiedzi – ChatGPT w wersji płatnej (ChatGPT Plus - model 4) będzie znacznie lepszy. Jak pisaliśmy, użytkownicy będą mieli dostęp do funkcji przeglądania stron internetowych, co ma w końcu zapewnić aktualne informacje, a nie bazujące – jak do tej pory – na wiadomościach do września 2021 roku. Miejmy nadzieję, że tym samym nie będzie już popełniał tak wielu błędów, tym samym stanowiąc poważne zagrożenia dla znacznie łatwiejszego i szybszego rozprzestrzeniania się dezinformacji.

Czytaj też

Piotr Jaszczuk z Defence24 dodatkowo przestrzega: „Inżynierowie i naukowcy oraz liderzy technologiczni powinni jednak dbać o jakość danych wejściowych oraz właściwy dobór osób trenujących AI. Z drugiej strony testując narzędzia AI przekazujemy za darmo naszą wiedzę oraz doświadczenie. Czy mamy pewność, że zostaną one wykorzystane w przyszłości w dobrej sprawie? Co z prawem własności intelektualnej?” – podsumowuje, pozostawiając tym samym wiele pytań bez odpowiedzi. Trenowanie sztucznej inteligencji na cudzej pracy to bowiem inna kwestia, o której dotąd zdecydowanie w przestrzeni publicznej za cicho.

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Haertle: Każdego da się zhakować

Materiał sponsorowany

Komentarze (1)

  1. klapaucyusz

    ChatGPT kłamie o wszystkim. Jego rozumienie języka jest ograniczone, swobodnie co i rusz sobie przeczy, może wypluć zylion odmiennych odpowiedzi na to samo pytanie, za każdym razem sugerując, że rozumie, o czym pisze i zna prawidłową odpowiedź. Może inspirować, ale nie powinien służyć jako źródło informacji. Na tym polu jest dużo mniej wiarygodny od wikipedii, a co dopiero od poważnych źródeł.

Reklama