Armia i Służby
Algorytmy wskażą przestępców
Brytyjska policja wykorzystuje oprogramowanie, które pozwala przewidywać miejsca oraz określić prawdopodobieństwo popełnienia przestępstwa. Walcząca o wolność i prywatność organizacja Liberty ostrzega przed negatywnymi konsekwencjami tych rozwiązań.
14 jednostek policji w Wielkiej Brytanii używa algorytmów do przewidywania przestępstw – wynika z najnowszego raportu przygotowanego przez grupę Liberty. Obrońcy praw człowieka obawiają się, że wykorzystywanie takich narzędzi może doprowadzić do podejmowania stronniczych decyzji dyskryminujących mniejszości oraz naruszania prywatności
Policja m.in. w Avon, Somerset, Manchesterze ma używać oprogramowania do przewidywania, gdzie może zostać popełnione przestępstwo, a nawet szacowania prawdopodobieństwa czy dana osoba może być jego sprawcą.
Według obrońców praw człowieka, masowe użycie tej technologii może stwarzać poważne zagrożenie dla swobód obywatelskich. Ich zdaniem zamiast inwestować w nowe technologie, które pozwolą uczynić obszary bezpieczniejszymi, stawia się na technologie, które będą prowadziły do pogłębienia niesprawiedliwości.
Hannah Couchman z Liberty w wywiadzie dla BuzzFeed powiedziała, że decyzje, które mają wpływ na całe życie podejmowane są na niejasnych zasadach. Nawet policjanci nie wiedzą w jaki sposób maszyny prowadzą swoje analizy i tworzą prognozy.
W szczególności, grupa Liberty obawia się, że algorytmy spotęgują podziały etniczne w brytyjskim społeczeństwie. Obecnie czarnoskórzy obywatele Wielkiej Brytanii są aresztowani trzy razy częściej niż biali. Algorytmy mają tylko to zwiększyć. Doprowadzi to do pogorszenia stosunków z mniejszościami, które historycznie były nierówno traktowane. Technologia rodzi również poważne zmartwienia wśród obrońców prywatności. Ma to związek z coraz częstszymi obawami o wykorzystanie big data do monitorowania zachowania.
Raport dostrzega jednak również pozytywne strony oprogramowania, które może pomóc policji zwiększyć swoją efektywność, działać szybciej oraz taniej, co jest istotne, biorąc pod uwagę, ograniczenia budżetowe, z którymi muszą mierzyć się służby porządkowe. Liberty ostrzega jednak, że ze względu na chęć ograniczenia wydatków, zbyt duży nacisk może zostać położony na analizę danych pozwalających prognozować zachowania przestępcze, a nie na budowę ludzkich relacji i profesjonalne ekspertyzy.
Obrońcy prawa człowieka podkreślają, że oprogramowanie zostało wprowadzone bez należytej zewnętrznej kontroli. Wygląda na to, że jest niewiele mechanizmów sprawdzających czy decyzje podejmowane przez maszyny są sprawiedliwe. Oprogramowanie zostało rozwinięte przez komercyjnych dostawców, którzy traktują algorytmy jako tajemnice handlowe. Dlatego policja nie rozumie w jaki sposób podejmowane są decyzje.
Raport wymienia dwa rodzaj oprogramowania używanego przez policję. Pierwsze, najszerzej rozpowszechnione i przyjęte przez 13 jednostek policji nazywa się „mapowaniem predyktywnym (predictive mapping)”. Jego działanie opiera się na identyfikacji miejsc, w których zachodzi wysokie ryzyko popełniania przestępstw. Mapa tworzona jest w oparciu o analizę ogromnych ilości danych zawierających historię przestępstw. W teorii powinno to pomagać policji skuteczniej i efektywniej zarządzać własnymi zasobami.
Drugi typ oprogramowania nosi nazwę „indywidualnej oceny ryzyka (individual risk assessments)”. Jego głównym zadaniem jest zbadanie prawdopodobieństwa czy dana osoba będzie ofiarą lub sprawcą przestępstwa. Na razie oprogramowanie to jest używane przez policję w Avon, Somerset, Durham i West Midlands. Funkcjonariusze z Avon i Somerset mają używać szerokiego spektrum programów identyfikujących indywidualne ryzyko. Na to czy dana osoba może być sprawcą albo ofiarą przestępczości wpływ mogą mieć takie czynniki jak przemoc domowa, nękanie, stalking czy przemoc seksualna. Autorzy raportu byli zdumieni liczbą narzędzi, używanych do pomiaru ryzyka.
Przedstawiciele policji powiedzieli BuzzFeed, że dostęp do informacji, który pozwala zapobiegać przestępstwom jest bardzo ważny. Systemy nie maja jednak zastępować ludzkich osądów, a policjanci robią wszystko żeby minimalizować negatywne skutki stronniczości modeli danych. Etyczność używanych programów miała być konsultowana ze społecznością akademicką.
Liberty wzywa siły policyjne do zaprzestania używania technologii albo do publicznego przedstawienia większej liczby szczegółów odnośnie funkcjonowania algorytmów.
Skierowaliśmy pytanie do polskiej policji o używane przez nią oprogramowania pozwalającego na przewidywanie przestępstw. Jak tylko otrzymamy odpowiedź, opublikujemy ją na portalu.