Reklama

Technologie

Amnesty International: sztuczna inteligencja zagrożeniem dla praw człowieka

Sztuczna inteligencja a prawa człowieka
Sztuczna inteligencja wpływa na łamanie praw człowieka
Autor. @freepik / Freepik

Amnesty International opublikowało raport o stanie praw człowieka za 2023 rok. Jak czytamy w publikacji: trwa kryzys praw człowieka i rządów prawa, który przyspiesza wraz z rozwojem sztucznej inteligencji.

Według autorów – Big Techom zależy na podsycaniu konfliktów i nierówności, ponieważ zarabiają na tym spore pieniądze. Brakuje odpowiednich rozwiązań prawnych, które mogłyby ograniczyć ich apetyty.

Zagrożenia związane z Gen AI

Jak zauważają autorzy raportu - generatywna sztuczna inteligencja daje wiele możliwości. Jednak bez skutecznych regulacji prawnych, może również zwiększać ryzyko łamania praw człowieka w obszarach, takich jak: zatrudnianie, prawa pracownicze, prywatność i bezpieczeństwo w internecie, dostęp do opieki społecznej i zdrowotnej, a także do edukacji.

Wśród zagrożeń związanych z AI znalazło się utrwalanie dyskryminacji, rasizmu, rozpowszechnianie dezinformacji oraz mowy nienawiści.

Czytaj też

Reklama

AI w konfliktach zbrojnych

Jak czytamy w raporcie - sztuczna inteligencja jest używana w sposób niekontrolowany podczas konfliktów zbrojnych, o czym wielokrotnie pisaliśmy na łamach CyberDefence24.pl.

Najnowszy przykład: po raz pierwszy w historii F-16 kontrolowany przez technologię sztucznej inteligencji brał udział w manewrach w powietrzu z innym F-16, za sterami którego siedział pilot. To były tylko ćwiczenia, ale nie trudno się domyślić, że ta technologia wkrótce może zostać wykorzystana w praktyce.

Według raportu firmy technologicznie ignorują lub minimalizują szkody, które powstały na skutek konfliktów zbrojnych m.in. w Etiopii, Izraelu, Strefie Gazy, Birmie oraz Sudanie.

Czytaj też

Reklama

Rozpoznawanie twarzy

Autorzy raportu zwrócili uwagę, że systemy rozpoznawania twarzy oparte na AI były wykorzystywane m.in. w Argentynie, Brazylii, Indiach i Wielkiej Brytanii. Rządy sięgają po te narzędzie, aby wzmocnić nadzór nad publicznymi protestami i wydarzeniami sportowymi oraz dyskryminację zmarginalizowanych społeczności – w szczególności migrantów i uchodźców.

System rozpoznawania twarzy był też wykorzystywany przez Izrael wobec okupowanych terytoriów palestyńskich, o czym pisaliśmy już na łamach CyberDefence24.pl. Amnesty International zarzuca Izraelowi, że korzystał z tej technologii do ograniczenia swobody przemieszczania się i jako wsparcie w utrzymaniu systemu apartheidu.

Czytaj też

Reklama

Opieka zdrowotna

Raport wykazuje, że w Serbii wprowadzenie systemu opieki społecznej częściowo opartego na automatyzacji spowodowało, że tysiące osób straciło możliwość korzystania z niezbędnych świadczeń. Sytuacja dotknęła zwłaszcza Romów i osoby z niepełnosprawnościami.

Pokazuje to, jak bardzo należy uważać z prowadzaniem przez rządy rozwiązań opartych na sztucznej inteligencji.

Czytaj też

AI w mediach społecznościowych

Sztuczna inteligencja może wpływać negatywnie na zdrowie psychiczne, zwłaszcza młodych osób i mniejszości. W raporcie został omówiony system rekomendacji treści TikToka, oparty na AI. Według autorów może on sugerować użytkownikom treści o charakterze depresyjnym i samobójczym, które niosą ze sobą ryzyko pogorszenia istniejących problemów związanych ze zdrowiem psychicznym.

Z koeli na platformie X (dawny Twitter) odnotowano alarmujący wzrost liczby nawoływań przeciwko osobom LGBTI. W mediach społecznościowych stały się też popularne treści antyaborcyjne. Ma to związek z modelem biznesowym Big Techów, opartym na budowaniu profili behawioralnych w mediach społecznościowych.

Czytaj też

Wpływanie na decyzje wyborcze

Szerzenie dyskryminacyjnych treści w mediach społecznościowych może być związane z chęcią wpływania na decyzje wyborcze. W bezprecedensowym roku 2024 ponad dwa miliardy ludzi będzie miało prawo zagłosować w wyborach w różnych krajach, m.in. w USA i w Indiach.

W tych celach stosuje się też materiały szerzące dezinformację, np. deepfake’i z politykami.

Politycy od dawna stosują manipulację narracjami «my kontra oni», aby zdobyć poparcie wyborców i uniknąć zasadnych pytań o kwestie gospodarcze i bezpieczeństwa, które budzą obawy. Widzieliśmy, jak nieuregulowane technologie, takie jak rozpoznawanie twarzy, zostały wykorzystane do wzmocnienia dyskryminacji. Dodatkowo oliwy do ognia nienawiści dolewa model biznesowy Big Tech oparty na budowaniu profili behawioralnych. Umożliwia on osobom o złych intencjach ściganie i odczłowieczanie, ale też wzmacnianie niebezpiecznych narracji, aby konsolidować władzę lub manipulować sondażami. To wizja przyszłości, która mrozi krew w żyłach. Postęp technologiczny musi wiązać się z odpowiedzialnością.

Agnès Callamard, Sekretarzyni Generalna Amnesty International

Czytaj też

Raporty o prawach człowieka

Amnesty International publikuje raporty na temat stanu przestrzegania praw człowieka w ponad 150 krajach świata nieprzerwanie od 1961 roku. Jak piszą autorzy, powstaje on na podstawie niezależnych i bezstronnych badań, stanowi kompleksowe źródło wiedzy o globalnym stanie praw człowieka.

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama
Reklama

Komentarze