Reklama

Technologie

#CyberMagazyn: Czy sztuczna inteligencja umacnia nierówności społeczne?

Fot. StockSnap / Pixabay
Fot. StockSnap / Pixabay

Sztuczna inteligencja pomaga umacniać swoją pozycję tym, którzy już teraz są silni, ale nie wpływa korzystnie na los grup narażonych na dyskryminację czy wykluczenie – ocenia Fundacja Mozilla, analizując wyzwania stojące przed rewolucją algorytmiczną.

Reklama

W opublikowanym niedawno raporcie, Fundacja Mozilla oceniła, że sztuczna inteligencja (AI) to technologia, która przyniesie wiele korzyści najbogatszym, jednak nie przełoży się na wzrost szans dla uboższych, wykluczonych bądź podatnych na dyskryminację grup społecznych.

Reklama

Dlaczego AI umacnia nierówności?

Reklama

Przede wszystkim dlatego, że automatyzacja pracy i wykorzystanie na szeroką skalę algorytmów zwiększa zyski gigantów technologicznych, nie przekłada się natomiast na szanse dla pracowników zagrożonych np. redukcją miejsc pracy związaną z robotyzacją.

Czytaj też

W raporcie o stanie zdrowia internetu za rok 2022 eksperci Mozilli wskazują, że sztuczna inteligencja już teraz wywiera bardzo negatywny wpływ na wykluczone grupy społeczne.

„W czasie globalnej gorączki automatyzacji, widzimy ogromne ryzyko dyskryminacji i inwigilacji. Widoczne są także braki odpowiedzialności i przejrzystości, a także zbyt duża skłonność do polegania na zautomatyzowanym podejmowaniu decyzji, co ma ogromne konsekwencje" – czytamy w opracowaniu.

Jakie problemy stoją przed sztuczną inteligencją?

Systemy sztucznej inteligencji są dziś coraz szerzej wykorzystywane w różnych dziedzinach życia i pracy po to, aby ułatwiać wcześniej złożone obliczenia czy skomplikowane czynności.

Wykorzystanie AI otwiera też szereg zupełnie nowych możliwości, takich jak rozpoznawanie mowy, zautomatyzowane wykrywanie nadużyć finansowych, istnienie pojazdów autonomicznych, czy poszukiwanie nowych receptur medycznych. 

Czytaj też

Sztuczna inteligencja ma jednak swoje ograniczenia, które wynikają z faktu, że każda technologia jest tak doskonała (lub tak wadliwa), jak ludzie, którzy ją tworzą. Systemy algorytmicznego rozpoznawania twarzy wykorzystywane przez organy ścigania mogą zatem fałszywie oskarżać osoby czarnoskóre o przestępstwa, których wcale nie popełniły, bądź reprodukować inne stereotypy. Zwraca na to uwagę w swoim raporcie Fundacja Mozilla.

Jej zdaniem, AI wykazuje skłonność nie tylko do dyskryminacji na tle etnicznym, ale i seksualnym – wszystko przez to, że działanie algorytmów opiera się na danych, które mogą same w sobie być zmanipulowane i nie oferować możliwości obiektywnej analizy.

Zdaniem Mozilli, wielkie firmy technologiczne, które są właścicielami algorytmów, nie wykazują się w swoich działaniach należytą przejrzystością względem tego, w jaki sposób korzystają z danych osobowych w swoich produktach opartych o sztuczną inteligencję. M.in. przez to nie wiemy wciąż, jak działają algorytmy rekomendacji treści w mediach społecznościowych czy na platformach zakupowych – nie mamy zatem wpływu na wykorzystanie naszych danych do wpływania na podejmowane przez nas decyzje.

Czytaj też

Systemy rekomendacji, jak wskazuje Mozilla, w dobie wojny i pandemii mogą być odpowiedzialne za proponowanie użytkownikom m.in. obcej propagandy lub innych szkodliwych treści, takich jak np. teorie spiskowe. 

Big Techy a badania akademickie

Mozilla w swoim raporcie zwróciła również uwagę na kwestię fundowania badań naukowych przez wielkie firmy technologiczne, które w ten sposób wywierają wpływ na naukę i kształtują ją w korzystny dla siebie sposób.

Według ekspertów Fundacji, niewiele opracowań naukowych koncentruje się dziś na zagrożeniach i ryzyku, wynikających z użycia sztucznej inteligencji, mnóstwo czasu natomiast poświęcone jest korzyściom i szansom, jakie ma umożliwiać rozwój tej technologii.

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama
Reklama

Komentarze