Polityka i prawo
Masowy sprzeciw ekspertów przeciwko wykorzystaniu AI do przewidywania przestępstw
Ponad tysiąc ekspertów z dziedziny sztucznej inteligencji sprzeciwia się wykorzystaniu jej do przewidywania przestępstw przez policję - informuje serwis Tech Crunch.
Badanie wspierające wykorzystanie "zautomatyzowanych systemów rozpoznawania twarzy do przewidywania, czy dana osoba popełni przestępstwo i wspomagania w ten sposób czynności policyjnych" ma zostać opublikowane nakładem koncernu wydawniczego Springer, który jest wydawcą m.in. prestiżowego czasopisma naukowego "Nature".
Sprzeciw wobec publikacji badania wyraziło również w liście otwartym ponad 50 pracowników wielkich firm technologicznych, takich jak Facebook, Google czy Microsoft, które również zajmują się rozwojem sztucznej inteligencji.
Kontrowersyjna praca naukowa zawiera twierdzenia o tym, że zautomatyzowane systemy rozpoznawania twarzy oparte o sztuczną inteligencję mogą "w sposób wolny od uprzedzeń" dostarczać danych nt. potencjalnego rozwoju przestępczości i tym samym znajdować zastosowanie w pracy policji oraz innych organów ścigania. Jednym z jego autorów jest profesor Uniwersytetu w Harrisburgu Nathaniel J.S. Ashby.
Oponenci publikacji wskazują, że do technologii rozpoznawania twarzy oraz zautomatyzowanego wykrywania i predykcji przestępstw należy podchodzić z "najwyższą ostrożnością" i nie powinny one być wykorzystywane "przeciwko narażonym na niesprawiedliwe działania społecznościom". Krytycy wskazują na wątpliwe podstawy etyczne badania, a także podkreślają, że jest ono oparte o "niesprawdzone metody badawcze, które przez wielu naukowców na przestrzeni lat zostały sfalsyfikowane".
"Programy oparte o uczenie maszynowe nie są neutralne. Analiza badań prowadzonych nad ich rozwojem oraz danych służących w celach ich rozwoju wykazuje, że praca nad tą technologią nie jest wolna od dominujących przekonań i stereotypizacji" - stwierdzili autorzy listu otwartego, który sprzeciwia się publikacji badania przez Springera.
"Pozbawiona krytyki akceptacja założeń (nt. działania systemów sztucznej inteligencji - PAP) może prowadzić do projektowania ich w sposób dyskryminacyjny i powielania idei, które normalizują hierarchizację społeczną oraz przemoc wobec marginalizowanych grup" - dodali.