Reklama

Cyberbezpieczeństwo

Programiści, strzeżcie się. AI zmyśla potrzebne repozytoria

Czy korzystanie z pomocy AI podczas programowania jest bezpieczne? Tak, o ile zachowa się szczególną ostrożność na to, że sztuczna inteligencja... zmyśla.
Czy korzystanie z pomocy AI podczas programowania jest bezpieczne? Tak, o ile zachowa się szczególną ostrożność na to, że sztuczna inteligencja... zmyśla.
Autor. BoliviaInteligente/Unsplash

Wykorzystywanie sztucznej inteligencji przy tworzeniu programów może wydawać się pomocne. Okazuje się jednak, że programistów może spotkać przykra niespodzianka – wszystko przez to, że AI zwyczajnie… zmyśla.

Coraz szersze zastosowanie sztucznej inteligencji skłania programistów do wykorzystywania jej do pomocy przy pisaniu skryptów czy programów. Najnowsze badania wskazują jednak, że zbytnie zaufanie AI może doprowadzić do niemałych kłopotów.

Czytaj też

Reklama

Przepytać sztuczną inteligencję

Na zagrożenie płynące z wykorzystania AI wskazał portal The Register. Odkrycie to jest z kolei wynikiem ponad półrocznych prac badacza Bara Lanyado, który wykrył zmyślanie przez sztuczną inteligencję repozytoriów rzekomo wymaganych do działania.

Jak opisuje sam Lanyadoza pierwszym razem „przeyptał” ChataGPT i Gemini ponad 400 razy na 40 tematów. Wykorzystał przy tym jedynie 2 języki programowania. Wyniki okazały się na tyle niepokojące, że zdecydował o poszerzeniu skali badań.

Czytaj też

Reklama

Wymyślanie na zawołanie

Przy drugim podejściu, Lanyado przygotował 2500 pytań na 100 tematów. Zapytania dotyczyły 5 języków – Ruby, Go, Pythona, .Net i node.js – a ich adresatem były modele Coral, Gemini Pro, GPT-3.5-Turbo oraz GPT-4.

Wyniki powinny zdecydowanie zwrócić uwagę każdego programisty, który wykorzystał pomoc AI podczas pisania swojego projektu. W przypadku modeli GPT średnio ok. 23 proc. odpowiedzi zawierało całkowicie zmyślone nazwy repozytoriów. 

Nieco gorzej było w przypadku Coral, gdzie 29,1 proc. odpowiedzi było zmyślonych. Całkowitą katastrofą można natomiast określić wynik w przypadku Gemini, gdzie aż 64,5 proc. odpowiedzi zawierało zmyślone paczki.

Czytaj też

Reklama

Przypadki mogą iść w dziesiątki tysięcy

Jakie konkretnie zagrożenie niesie ze sobą pomoc AI? Otóż, o ile dana paczka nie istnieje w momencie uzyskiwania odpowiedzi od AI, tak po kilku godzinach sytuacja może być odwrotna.

Lanyado odkrył bowiem również, że ChatGPT w jednej z instrukcji nakazuje dodanie linijki instalującej paczkę „huggingface-cli”. Postanowił stworzyć puste repozytorium o takiej nazwie na GitHubie, po czym zostawił je na trzy miesiące. Gdy po tym czasie sprawdził statystyki repozytorium, okazało się, że pobrano je przeszło 30 tys. razy – pomimo tego, że było puste! 

Wniosek autora jest jeden: należy zachować ostrożność podczas korzystania z pomocy AI przy programowaniu. Wystarczy bowiem, że tego typu podatność wykorzystają cyberprzestępcy, co może się źle skończyć dla tysięcy programistów i przedsiębiorstw na całym świecie.

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Komentarze

    Reklama