Reklama

Technologie

Etyczna i demokratyczna sztuczna inteligencja. Czyli jaka?

sztuczna inteligencja
Etyczna sztuczna inteligencja, czyli jaka?
Autor. deepak pal/Flickr/CC BY 2.0

Sztuczna inteligencja jest już wykorzystywana przez państwa. Czy jej decyzje są sprawiedliwe? A jeśli nie, skąd mielibyśmy to wiedzieć? Przyjrzyjmy się głosom podnoszonym przez zwolenników demokratycznej i etycznej SI.

„Rządzenie z wykorzystaniem sztucznej inteligencji. Czy rządy są gotowe?” – taki tytuł nosi niedawno opublikowany raport OECD. Czytamy w nim, że SI w sektorze publicznym ma potencjał zwiększenia produktywności, komunikatywności i szybkości usług publicznych oraz wzmocnienia odpowiedzialności rządów.

Czytaj też

Reklama

To już się dzieje. SI w administracji

Raport OECD wskazuje, że już teraz państwa Zachodu inwestują w automatyzację procesów z wykorzystaniem sztucznej inteligencji.

Wśród przykładów można wymienić wdrożoną w Belgii platformę do konsultacji społecznych od firmy Citizenlab. Raport OECD informuje, że korzysta z niej – do lepszego rozumienia i reagowania na opinie obywateli – co najmniej 400 samorządów (s. 10).

Finlandia z pomocą AuroraAI identyfikuje usługi uciążliwe dla obywateli (s. 12), z kolei Estonia testuje sztuczną inteligencję identyfikującą nieprawidłowo złożone wnioski o zwrot podatku VAT oraz firmy lub osoby wymagające kontroli (s. 13).

W Szwecji Urząd Rejestracji Spółek korzysta z modelu SI, który sortuje i przetwarza ok. 60 proc. odbieranych e-maili (s. 11), a w Kolumbii z pomocą sztucznej inteligencji przeanalizowano dane satelitarne i wygenerowano szczegółowe informacje geokatastralne na dużych obszarach, co pozwoliło na rozpoznanie i rejestrację prawie 1 900 nieruchomości (s. 12)).

Reklama

Korzyści i ryzyka

Algorytmy usprawniają podejmowanie decyzji, ale też potrafią wydawać niesprawiedliwe werdykty. To od tego, jakie algorytmy i zasady ich działania stworzymy, zależy, w którą stronę pójdziemy.

Z jednej strony potrafią wspierać cyberbezpieczeństwo, z drugiej – pomagają oszustom w tworzeniu fałszywych treści. Również politycy czy przestępcy mogą wykorzystywać automatyczne systemy wykrywania i rozpoznawania twarzy do inwigilacji lub monitorowania ludzi. Albo generatywną sztuczną inteligencję (np. tworzącą deepfake’i) do wpływania na ich decyzje lub do wprowadzenia ich w błąd.

Podobnie w administracji: skuteczny algorytm pomaga przyspieszyć przetwarzanie wniosków, ale może też podejmować decyzje powielające uprzedzenia i stereotypy stosowane przez żywych urzędników. Problem narasta, gdy nie jest jasne, kto odpowiada za błędy algorytmu, a sam system nie jest transparentny.

Czytaj też

Reklama

Algorytmy szkody

O tym, że sztuczna inteligencja i automatyzacja potrafią doprowadzić do nieprzewidzianych i szkodliwych konsekwencji społecznych, przekonuje analityczka danych Cathy O’Neil.

Przez wiele lat pracowała ona przy tworzeniu modeli automatyzujących procesy i zauważyła coraz więcej wątpliwości i problemów etycznych. Owocem tej refleksji jest jej książka „Weapons of Math Destruction” (pl. „Broń matematycznej zagłady”). W każdym rozdziale autorka przedstawia realny scenariusz, w którym system stworzony z dobrymi intencjami prowadzi do niesprawiedliwości lub do pogłębienia nierówności społecznych.

Przykładowo: w jednym z rozdziałów dowiadujemy się, że z powodu specyfiki systemu wyborczego w USA, gdzie wygrana w wyborach prezydenckich może zależeć od kilku kluczowych stanów, wyborcy ze „znanymi” głosami są zasadniczo ignorowani przez polityków. Algorytmy lokalizują i kierują postulaty do niezdecydowanych wyborców w okręgach, które są konkurencyjne.

Natomiast w innym fragmencie autorka opisuje, jak system przeznaczony do monitorowania przestępczości i wysyłania patroli do konkretnych dzielnic zaczął profilować również niewinnych obywateli. Jej zdaniem wynika to z faktu, że algorytm widzi tylko uśrednione dane, a nie pojedyncze osoby. W konsekwencji, w ocenie O’Neil: „kryminalizujemy ubóstwo i cały czas przy tym wierzymy, że nasze narzędzia są nie tylko naukowe, lecz także sprawiedliwe”.

Technologia nie jest neutralna

Filozof technologii Mark Coeckelbergh zwraca uwagę na „deficyt demokracji” w zarządzaniu przy pomocy sztucznej inteligencji, czyli na skupianiu się na szukaniu technicznych rozwiązań problemów przy jednoczesnym ignorowaniu ludzkich potrzeb i społecznego podłoża tych problemów.

W komentarzu na łamach „Nature Machine Intelligence” przekonywał z dwójką współautorów, że: „musimy się zastanowić, w jaki sposób włączyć przywództwo polityczne, pluralizm i sensowną konsultację, a nie tylko to, w jaki sposób można wykorzystać sztuczną inteligencję do optymalizacji złożonych kwestii technicznych” (s. 2).

Coeckelbergh wybiega w przyszłość i przeciwstawia sobie dwie hipotetyczne ścieżki rozwoju: Demokracja wzmocniona przez SI (ang. AI-augmented democracy) i Technokracja napędzana przez SI (ang. AI-fuelled technocracy). Jego zdaniem, dopiero uwzględnienie perspektywy różnych stron, różnorodności głosów i potrzeb obywateli przy projektowaniu nowych systemów uchroni nas przed drugim scenariuszem.

Czytaj też

SI popełniło błąd. Czy dowiemy się czemu?

A co gdy sztuczna inteligencja popełni błąd? Albo na podstawie danych dostarczonych przez człowieka nabędzie jego uprzedzenia i sama zacznie dyskryminować ze względu na płeć lub rasę? To nie jest hipotetyczny scenariusz – do takiej sytuacji dochodziło już m.in. w Stanach Zjednoczonych.

W reakcji na to wyzwanie na gruncie etyki wyrósł postulat prawa do wyjaśnienia. To teoretyczne prawo każdego człowieka do otrzymania informacji zwrotnej w sytuacji, gdy sztuczna inteligencja podjęła decyzję mającą wpływ na jego życie.

Jak to działa? Przykładowo, gdy decyzja algorytmu sprawi, że nie otrzymamy kredytu lub pracy albo nasz kolega (z podobną liczbą osiągnięć) otrzyma stypendium zamiast nas, powinniśmy otrzymać wytłumaczenie tego werdyktu.

Wyjaśnienie. Ale jakie?

Oczywiście, natkniemy się tu na problem natury technicznej. Bo jak takie wyjaśnienie miałoby wyglądać? Siła sztucznej inteligencji leży w szybkim przetwarzaniu dużych zbiorów danych i wykrywaniu zależności niedostrzegalnych dla ludzkiego oka. Na pewno samo zajrzenie do „bebechów” tej maszyny jest wyjaśnieniem, ale dla osoby niewykształconej technicznie nie będzie ono ani zrozumiałe, ani wystarczające.

Z tego powodu w dyskusji nad prawem do wyjaśnienia postuluje się przekazywanie ludziom tzw. scenariuszy kontrfaktycznych – to znaczy odnoszących się do zdarzeń potencjalnych lub nierzeczywistych.

Na przykład, gdy sztuczna inteligencja zadecyduje o negatywnej decyzji kredytowej lub oznaczy Twoją deklarację podatkową jako błędną, zasługujesz na wyjaśnienie, jakie warunki musiałyby zostać spełnione lub co musiałoby się wydarzyć, aby SI podjęło inną decyzję.

W przypadku decyzji kredytowej mogłoby to być – w uproszczeniu – przedstawienie Ci potrzebnych miesięcznych zarobków lub przekazanie informacji o konieczności spłaty zaległej raty za lodówkę.

Podsumujmy, czego szukamy

Przywołany na początku raport OECD słusznie wskazuje na zalety płynące z wdrażania sztucznej inteligencji w kluczowych sferach administracji. Szybkie i produktywne algorytmy mogą znacznie usprawnić codzienne funkcjonowanie usług publicznych.

Na tej drodze do postępu technologicznego warto pamiętać o głosach i uwagach podnoszonych przez stronę społeczną.

Zarówno „deficyt demokracji” opisywany przez Coeckelbergha, jak i niesprawiedliwości sygnalizowane przez O’Neil można przepracować dzięki sięgnięciu do lekcji płynących z etyki. Dobrym praktycznym przykładem rozwiązania w tym zakresie jest prawo do wyjaśnienia.

Autor: Piotr Litwin, Stowarzyszenie Demagog

Czytaj też

Reklama

Komentarze

    Reklama