Reklama

Armia i Służby

Jak duże modele językowe zmieniają pracę organów ścigania?

Autor. tomek.pl / Flickr

Rosnąca popularność dużych modeli językowych (LLM) takich, jak m.in. ChatGPT to wyzwanie dla organów ścigania, które wpłynie na ich pracę i wbrew pozorom, oprócz zagrożeń, może też przynieść wiele korzyści – ocenia Europol.

Reklama

W swoim najnowszym opracowaniu poświęconym roli dużych modeli językowych (LLM) w pracy organów ścigania, Europol podkreśla, że ChatGPT i inne, podobne technologie, to nie tylko zagrożenia, ale również nowe możliwości dla policji oraz innych służb.

Reklama

Korzyści z LLM w służbach

Reklama

Europol wskazuje, że zastosowania LLM to obecnie m.in. wirtualni asystenci, czatboty, narzędzia do tłumaczenia języków obcych oraz usługi analityczne.

Zwłaszcza te ostatnie mogą służyć organom ścigania pomocą ze względu na zdolność analizowania dużych ilości danych, wyszukiwania w nich wzorców, a także wykrywania anomalii i odstępstw od wcześniej zdefiniowanych reguł.

Analiza tego rodzaju może być wsparciem w czynnościach dochodzeniowych, wykrywaniu i zapobieganiu przestępczości, w tym – terroryzmowi – oceniają funkcjonariusze.

Duże modele językowe mogą pomagać organom ścigania również w usprawnianiu komunikacji, szczególnie w przypadkach, gdy w grę wchodzą języki obce i konieczność szybkiego porozumienia się, nawet jeśli obok nie ma tłumacza.

Jest też ryzyko

Europol nie twierdzi jednak, że zastosowania dużych modeli językowych mogą przekładać się wyłącznie na korzyści.

Europolicja dostrzega ryzyko związane z powstaniem i szybkim upowszechnieniem LLM, a główne zagrożenie dostrzega w kwestiach związanych z nadużyciami wobec prywatności.

Duże modele językowe przetwarzają ogromne ilości danych, które wcześniej są gromadzone z internetu, często z naruszeniem prywatności i ochrony danych osobowych – np. ze źródeł, w których znajdują się dane wcześniej wykradzione przez hakerów.

Innym ryzykiem, które dostrzega Europol, jest możliwość otrzymywania zaburzonych lub zatrutych wyników analizy ze względu na stronniczość danych szkoleniowych algorytmów wykorzystywanych przez LLM.

Ostatecznie, funkcjonariusze zwracają uwagę na ryzyko wykorzystania narzędzi takich, jak ChatGPT i inne LLM do rozsiewania dezinformacji i wprowadzania w błąd dużych grup społecznych, o czym pisaliśmy na łamach naszego serwisu już tutaj .

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Komentarze

    Reklama