Cyberbezpieczeństwo
ChatGPT narzędziem do inwigilacji? Obawy nie tylko o bezpieczeństwo
Rosyjska firma Social Links (zajmująca się inwigilacją) ma używać ChatuGPT do analizowania i przetwarzania tysięcy danych, jakie pobiera z mediów społecznościowych. Czy chatbot to kolejne zagrożenie dla bezpieczeństwa?
Firma Social Links - jak informował Forbes - została oskarżona przez Metę o masowe scrapowanie Facebooka oraz Instagrama w poszukiwaniu danych o użytkownikach, by następnie używać ich do szpiegowania. W kolejnym kroku ma korzystać z ChatuGPT do przetwarzania i analizowania danych, które jej oprogramowanie pobiera z mediów społecznościowych.
Spółka wcale nie kryje się ze swoimi zdolnościami. Niekonwencjonalne zastosowanie najpopularniejszego chatbota na świecie pokazała na konferencji bezpieczeństwa w Paryżu w ubiegłym tygodniu. Wykorzystała go do podsumowania i analizy, przetwarzając w bardzo szybkim czasie wprowadzone informacje.
W ramach pokazu, zademonstrowano jak można przenalizować zebrane wcześniej – za pomocą rosyjskiego narzędzia – dane. Dotyczyło to wpisów na temat ostatnich protestów w Hiszpanii. W analizie sentymentu, AI ocenia „nastrój” użytkowników mediów społecznościowych w danej chwili; to czym się interesują najbardziej; o czym dyskutują; co wzbudza w nich np. najsilniejsze emocje. Chatbot potrafił ocenić pobrane komentarze jako negatywne, neutralne i pozytywne, a wyniki pokazał na interaktywnym wykresie. Pozwala to np. pomóc przewidzieć, czy aktywność w sieci może przerodzić się w przemoc fizyczną i czy będzie wymagało to reakcji organów ścigania.
Czytaj też
Zagrożenie dla prywatności
Jak zwraca uwagę serwis Gizmodo, zwolennicy prywatności uznali to „za więcej niż niepokojące”, nie tylko jeśli weźmie się pod uwagę przypadek rosyjskiej firmy, ale także w ogólnym ujęciu – branży inwigilacyjnej, stosującej nowe narzędzia i techniki nadzoru. O ile może to pomóc w walce z przestępczością, budzi też obawy np. pod względem tłumienia ewentualnych demokratycznych protestów, zorganizowanych przeciw autorytarnym zapędom władzy.
Cytowany przez serwis Rory Mir z Electronic Frontier Foundation zwrócił uwagę, że sztuczna inteligencja „może pomóc organom ścigania poszerzyć ich wysiłki w zakresie nadzoru, umożliwiając mniejszym zespołom policjantów łatwe inwigilowanie większych grup”. Jego zdaniem, „przerażającą kwestią w takich narzędziach, jak ChatGPT jest to, że mogą skalować tego rodzaju operacje”, a także ułatwić przeprowadzanie analiz całej masy danych, które „będą służyły służbom do zwiększenia kontroli online”.
Jak na razie największym problemem są „halucynacje” dużych modeli językowych, w tym tego należącego do OpenAI, który w niezwykle istotnych sprawach może podawać błędne lub częściowo fałszywe odpowiedzi. Każdorazowo zatem powinien być kontrolowany przez człowieka.
AI w służbach
To, że sztuczna inteligencja stanowi zagrożenie, ale także jeden z najważniejszych zasobów, którym obecnie dysponują służby USA - nawet jeśli jednocześnie zasila szeregi wrogów - przyznała również szefowa działu ds. AI w CIA, Lakshmi Raman, o czym pisaliśmy w tym tekście.
Podkreśliła, że wykorzystanie AI przez adwersarzy to jedno, inną kwestią jest szansa, jaką daje sztuczna inteligencja pracownikom służb, np. poprzez zwiększenie produktywności i możliwość „zlecenia” jej bardziej czasochłonnych zadań, które są niezbędne w pracy, ale wymagają czasu i pracy ludzkiej.
Czytaj też
Obawy o bezpieczeństwo
Obawy dotyczące prywatności to niejedyne, jakie wiążą się z gigantycznym skokiem rozwojowym chatbotów. Przypomnijmy, że nie tak dawno odbył się globalny szczyt poświęcony kwesiom etyki sztucznej inteligencji. Zjednoczone Królestwo, USA, Australia, Unia Europejska i Chiny podpisały wspólną deklarację - jako efekt spotkania - wskazując, że sztuczna inteligencja to „katastrofalne zagrożenie”.
Czytaj też
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].