Biznes i Finanse
AI będzie zwalniać pracowników? Rosną obawy ekspertów
Algorytmy mogą monitorować czas przeznaczony na przerwy w pracy, a nawet decydować o tym, kto powinien zostać zwolniony. Czy powstaną odpowiednie instrumenty zabezpieczające przed ich negatywnym wpływem na pracowników?
Narzędzia sztucznej inteligencji już dziś wpływają na rynek pracy i sposób, w jaki oceniani są poszczególni pracownicy. Świadczą o tym m.in. niektóre firmy call center, gdzie AI odpowiada nie tylko za nagrywanie rozmów, ale także ich monitoring i ocenę pracy danej osoby. W jaki sposób? M.in. poprzez sprawdzanie, czy użyto konkretnych (wskazanych przez zarządzających) słów i czy w pełni zastosowano się do odpowiedniej instrukcji.
Spektrum działania nowoczesnych technologii jest zresztą jeszcze szersze. Poza monitoringiem i oceną, mogą też one inwigilować, pospieszać, a nawet wskazywać na to, kto według nich „nadaje się” do zwolnienia.
Problem polega na tym, że nawet najbardziej zaawansowany sprzęt może popełniać błędy, a w sytuacji, kiedy dotyczą one pracy danego człowieka, ich konsekwencje mogą być szczególnie poważne.
Czytaj też
Wyzwanie związków zawodowych
Rosnący wpływ technologii na rynek pracy nie może umknąć uwadze organizacji zrzeszających pracowników - wskazuje „The Guardian”. Ta uwaga ma głównie dotyczyć amerykańskich organizacji zrzeszających pracowników – zarzuca im się niewystarczające dbanie o zabezpieczanie pracowników przez inwazyjnymi środkami inwigilacji.
„Zdarza się, że pracownik nie wie, że w jego miejscu pracy używa się narzędzi monitorujących, że gromadzi się dane, które są wykorzystywane do oceny jego wydajności” – czytamy.
W Europie kwestia świadomości dotyczącej ewentualnych zagrożeń ma być na wyższym poziomie. Przykładem są to związki działające w jednej z niemieckich firm telekomunikacyjnych. Pracownicy Deutsche Telekom wywalczyli sobie, że sztuczna inteligencja nie można decydować o zwolnieniu danego pracownika bez ludzkiego nadzoru. Ponadto dane zebrane przez narzędzia cyfrowe nie powinny służyć do dyscyplinowania załogi. Orientacja seksualna czy poglądy polityczne również nie mogą wpływać na ocenę pracy.
Wracając do kwestii amerykańskiej, warto zaznaczyć, że również tutaj świadomość niebezpieczeństwa związanego z nadzorem AI zaczyna się zmieniać. Podany jest przykład Communications Workers of America, które wpłynęło na to, że nagrane rozmowy prowadzone przez pracowników call center mogą być co najwyżej wykorzystane do celów treningowych, a nie do oceniania i wyciągania konsekwencji przez nowoczesne technologie. Zmieniło się również to, że pracodawca ma obowiązek informować o tym, kiedy praca jest rejestrowana.
Czytaj też
Większa transparentność
Wraz z rozwojem narzędzi sztucznej inteligencji musi rosnąć świadomość dotycząca jej wykorzystywania. W ostatnich dniach zwracała na to uwagę Amerykańska Komisja Papierów Wartościowych i Giełd, która wezwała zarządy firmy Disney oraz Apple do informowania w rocznych raportach o stosowaniu AI w swojej działalności. Więcej na ten temat pisaliśmy w tym tekście.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].
Haertle: Każdego da się zhakować
Materiał sponsorowany