- WIADOMOŚCI
Akt o sztucznej inteligencji to „stąpanie po polu minowym”
Dla globalnego dostawcy Akt o sztucznej inteligencji jest niczym pole minowe, po którym musimy ostrożnie stąpać – stwierdził w rozmowie z CyberDefence24 Mathieu Chavalier, Principal Security Architect w Genetec. Według jego słów, część poleceń możliwych do przedstawienia AI może budzić wątpliwości co do zgodności z przepisami.
Autor. Freepik.com. Licencja: https://www.freepik.com/legal/terms-of-use, https://support.freepik.com/s/article/Attribution-How-when-and-where
Od kilku lat w Polsce trwają prace nad wdrożeniem Aktu o sztucznej inteligencji do krajowych przepisów. Publikacja w Dzienniku Urzędowym UE nastąpiła w połowie lipca 2024 roku. Jak informowaliśmy na naszych łamach, po kilku miesiącach zaprezentowano projekt ustawy w tej sprawie.
Rządowe prace nad dokumentem toczą się od wakacji 2025 roku. Kością niezgody stał się jednak organ nadzoru, o który spierały się resorty cyfryzacji oraz finansów. Ostatecznie instytucjom udało się porozumieć na początku lutego.
Skomplikowane regulacje. „Zależy od technicznego punktu widzenia”
Jak na AI Act patrzą zza Oceanem? Mathieu Chavalier, Principal Security Architect w Genetec, stwierdził w rozmowie z naszym portalem, że sytuacja przypomina „stąpanie po polu minowym”. Unijne przepisy wprowadziły bowiem koncept, który nie dopuszcza stosowania AI do dyskryminacji w oparciu m.in. o rasę czy płeć.
„Możemy wydać AI polecenie »znajdź białego człowieka, który przechodził tymi drzwiami w ciągu ostatniej godziny«, ale jest to delikatna sprawa. Wszystko zależy od tego, jak dokładnie wygląda ten proces z technicznego punktu widzenia. Dlatego tak ważna jest moderacja zapytań, aby odfiltrować subiektywne i dyskryminujące wyszukiwania” – powiedział Chavalier w rozmowie z naszą redakcją.
Jest to przykład, jak niebezpieczna może być sztuczna inteligencja. Może znacznie zwiększyć skalę naszych działań w branży, ale w zależności od kraju i regionu istnieją pewne ograniczenia. Dla globalnego dostawcy jest to niczym stąpanie po polu minowym. W tym obszarze musimy być bardzo ostrożni.
Mathieu Chavalier, Principal Security Architect w Genetec
Warstwy czy ograniczenia – odpowiedź na halucynacje?
Niemniej poważnym problemem pozostaje wyzwanie, jakie stanowią halucynacje sztucznej inteligencji.
W ramach swoich systemów odpowiedzialnych za bezpieczeństwo, Genetec oferuje pomoc w postaci sztucznej inteligencji, np. do znajdowania obiektów lub osób. Z drugiej strony, podczas Global Press Summit’26 zaznaczano, że choć ludzie mogą chcieć AI, to jednak potrzebują prawdy.
Zdaniem Chavaliera, kwestia halucynacji nie jest do końca zrozumiana – istnieją jedynie teorie, dlaczego tak się dzieje, a ich wyeliminowanie jest z tego powodu trudne. Jeżeli adaptuje się modele do potrzeb zamiast je budować, to możliwe jest założenie, że nie są one idealne pod względem odpowiedzi.
„W takiej sytacji można zmniejszyć ryzyko, np. dodając kolejne warstwy lub ograniczając możliwości AI. Przykładowo, kiedy po raz pierwszy użyliśmy sztucznej inteligencji do inteligentnej automatyzacji, mówiliśmy: »znajdź mi czarny samochód na tym parkingu z ostatnich kilku godzin«. Sztuczna inteligencja to przetwarza, ale wynikami są tylko takie pola jak marka samochodu, model czy kolor. Nie może więc popełnić takiego poważnego błędu przez halucynacje, jak inne modele” – wyjaśnił ekspert Genetec w rozmowie z redakcją CyberDefence24.
Mniejsze modele również są opcją
Jednocześnie Mathieu Chavalier przyznał, że małe, wyspecjalizowane modele sztucznej inteligencji – taki jak np. Bielik, o którym wielokrotnie wspominaliśmy na naszych łamach - jak najbardziej mają sens. Genetec stosuje bowiem takie rozwiązania w przypadku swoich kamer, dostosowując do tego celu odpowiednie małe modele.
„Modele podstawowe są dobre; w początkowej formie są wystarczająco ogólne i można je następnie dostosować. Istnieją przypadki, w których należy użyć modelu dedykowanego. Wszystko zależy od zastosowania” – stwierdził Principal Security Architect w Genetec.


Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].
Cyfrowy Senior. Jak walczy się z oszustami?