Po tym, jak w zeszłym tygodniu pojawiły się informacje o wrażliwości niektórych odmian ChatuGPT na ataki side-channel, pojawiło się remedium na ten problem. Okazuje się ono zaskakująco prostsze niż mogłoby się wydawać.
Jeżeli dany użytkownik używa modelu AI, będącego pochodną ChatuGPT na swoim sprzęcie, nie musi się niczym martwić. Sprawa ma się zupełnie inaczej, gdy model sztucznej inteligencji znajduje się na serwerze.
Czytaj też
Podsłuchiwanie AI
Jak poinformował serwis The Register, podczas ataku hakerzy korzystają z możliwości przechwycenia komunikacji między użytkownikiem a serwerem obsługującym AI. Wszystkie serwery wysyłają bowiem dane sekwencyjnie, bit po bicie.
Okazuje się, że taki sposób transmisji danych jest możliwy do „podsłuchania” przez hakerów, pomimo zaszyfrowania danych. Udowodnili to badacze z Uniwersytetu Bena Guriona w izraelskiej Beer Szewie.
Czytaj też
Prosty środek zaradczy
W celu zbadania sprawy, izraelscy naukowcy przygotowali kilka LLM-ów w celu podsłuchiwania ruchu. Przechwycone pakiety odpowiedzi AI zostały zrekonstruowane w 29 proc. przypadków, zaś temat konwersacji aż w 55 proc. z nich.
Informacje o odkryciu podatności pakietów na atak zostały przekazane do Cloudflare, które samo posiada modele AI będące rozwinięciem ChatuGPT. Okazuje się, że firma bardzo szybko znalazła rozwiązanie problemu.
Według stanowiska Cloudflare, zabezpieczenie pakietów przed podsłuchaniem przez osoby niepowołane jest bardzo proste. Do przekazywanych obiektów JSON dodano bowiem padding w postaci wartości „p” o losowej długości. Wszystkie produkty AI oferowane przez Cloudflare otrzymały już stosowną aktualizację systemu, zawierającą tę nowość. Pozostali muszą wprowadzić zmiany samodzielnie.
/PM
Czytaj też
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].