Polityka i prawo
Sztuczna inteligencja a zagrożenia. Konieczne jest zwiększenie świadomości
Grupa naukowców z Uniwersytetu w Cambridge stworzyła stronę z grami, emojify.info, której użytkownicy mogą wypróbować funkcję rozpoznawania emocji za pomocą kamerek komputerowych. Celem eksperymentu jest zwiększenie świadomości na temat ryzyka związanego ze sztuczną inteligencją.
Jak podał "The Guardian", jedna z gier polega na pokazywaniu różnych min w kamerce po to, by zmylić funkcję interpretowania emocji. Druga z kolei uświadamia, jak systemy odczytują wyrazy twarzy w różnych kontekstach.
Witryna zapewnia, że "nie gromadzi" danych osobowych użytkowników.
"To forma rozpoznawania twarzy, które idzie dalej, bo nie tylko identyfikuje ludzi, ale też twierdzi, że odczytuje na podstawie naszej mimiki to, co czujemy wewnątrz" - wyjaśniła kierowniczka projektu i badaczka związana z Uniwersytetem w Cambridge.
Dodała, że wiele osób nie zdaje sobie sprawy z tego, jak powszechne są systemy rozpoznawania emocji - używa się ich na lotniskach, przy rekrutacji pracowników a nawet w edukacji, żeby sprawdzić, czy dzieci uważają na lekcjach lub odrabiają pracę domową. Technologia używana jest na całym świecie, od Stanów Zjednoczonych po Chiny.
Taigusys, firma z siedzibą w chińskim mieście Shenzhen specjalizująca się w systemach rozpoznawania emocji, przyznała, że ich funkcje wykorzystywano w różnych placówkach, od domów opieki po więzienia. Z kolei indyjskie miasto Lucknow zamierza wykorzystać technologię do wykrywania ofiar nękania wśród kobiet. Pomysł ten spotkał się z krytyką, w tym ze strony organizacji zajmujących się prawami cyfrowymi.
Hagerty zwróciła uwagę, że mimo iż funkcja rozpoznawania emocji może przynosić pewne potencjalne korzyści, należy zastanowić się, czy jest odpowiednim narzędziem do konkretnych zadań. "Musimy przeprowadzić szerszą publiczną dyskusję na temat tego rodzaju technologii" - zaznaczyła.
Technologia rozpoznawania twarzy w ostatnich latach poddawana jest intensywnej kontroli. W zeszłym roku angielsko-walijska Komisja ds. Równości i Praw Człowieka apelowała o zaprzestanie wykorzystywania funkcji do masowej kontroli, argumentując, że to może szkodzić wolności słowa oraz umożliwiać policji dyskryminację.