Algorytmy mogą decydować o twoim życiu. Skąd wiesz, że są sprawiedliwe?

24 listopada 2021, 17:31
jo-szczepanska-5aiRb5f464A-unsplash
Fot. Jo Szczepanska/unsplash.com

Algorytmy są coraz częściej wykorzystywane do podejmowania decyzji, które mają trwały wpływ na nasze obecne i przyszłe życie. Mogą określić perspektywy zatrudnienia, bezpieczeństwo finansowe i nie tylko. 

Jakiego rodzaju decyzje mogą dotyczyć algorytmów?

Niektóre z największych skutków podejmowania decyzji przez algorytmy dotyczą edukacji. Dobrym przykładem może być system średniego i wyższego szkolnictwa w Australii, w którym na pewnym etapie to algorytm podejmuje decyzję, jaki profil zajęć będzie najbardziej odpowiedni dla danego ucznia - wskazuje TechXplore.

Niektóre decyzje będą wiązać się z selekcją wśród uczniów w zakresie zoptymalizowania efektów nauczania. Na przykład korzystanie z platformy NAPLAN online (National Assessment Program) dotyczy oceny skuteczności czytania, pisania oraz liczenia wśród młodzieży. Niektóre algorytmy w tym zakresie wspierają podejmowanie decyzji przez kadrę dydaktyczną na uniwersytetach, na przykład poprzez identyfikowanie uczniów potencjalnie zagrożonych niezaliczeniem przedmiotu.

Jak działają algorytmy?

Pomimo wszechobecnego wpływu algorytmów na nasze życie, często trudno jest zrozumieć, jak działają, dlaczego zostały zaprojektowane i jak są używane. Ponieważ algorytmy stają się kluczowym elementem podejmowania decyzji w edukacji, a także w wielu innych aspektach naszego życia, należy zadać sobie dwa najważniejsze pytania.

  1. W pierwszej kolejności, jak działają algorytmy?

  1. Po drugie, jakie można wskazać rodzaje kompromisów, które są dokonywane przy podejmowaniu decyzji za pomocą tychże algorytmów?

Jak podaje TechXplore, w ramach badań przeprowadzonych w Wielkiej Brytanii, opracowano tzw. grę algorytmiczną, aby zaangażować w badania jak największą grupę różnych interesariuszy. W tym przypadku proces stał się formą zbiorowego eksperymentowania na uczniach.

Gra algorytmiczna w swoich założeniach opierała się na kontrowersji związanej z egzaminami w Wielkiej Brytanii, przeprowadzonymi w 2020 roku. W wyniku sparaliżowania szkolnictwa z powodu pandemii COVID-19, algorytm był używany do określania wyników dla studentów, którzy chcieli uczęszczać na uniwersytet, ale nie mieli takiej możliwości. Algorytm przewidywał oceny z egzaminów na podstawie ich wcześniejszych ocen z danych przedmiotów, które okazywały się być znacznie niższe niż oczekiwali tego uczniowie. W obliczu ich protestów oraz ich rodziców, algorytm został ostatecznie wycofany.

„Niedorzeczna gra w obwinianie: obwiniaj człowieka, a nie algorytm” — podsumował premier Boris Johnson, tym samym obwiniając algorytm za fiasko egzaminu maturalnego w Wielkiej Brytanii.

Gry algorytmami jako poligon doświadczalny?

Obecnie zwiększa się świadomość społeczna, że algorytmy - zwłaszcza te wykorzystywane na podstawie sztucznej inteligencji - należy rozumieć jako podnoszące kwestie sprawiedliwości społecznej. Chociaż każdy może mieć odosobnione zrozumienie tego, co jest sprawiedliwe, a co niesprawiedliwe, to w przypadku korzystania z algorytmów wiąże się to z licznymi kompromisami - podkreśla TechXplore.

Przykład z Wielkiej Brytanii podkreśla kluczowe problemy związane ze stosowaniem algorytmów w społeczeństwie, w tym kwestie przejrzystości i stronniczości danych. Te mają znaczenie wszędzie, łącznie z wcześniej przytoczonym przykładem z Australii.

„Gry” w swoich pierwotnych założeniach zachęcają ludzi do poznawania parametrów działania najróżniejszych algorytmów. Przykładami są te, które pokazują, w jaki sposób są wykorzystywane w opiniowaniu procesów sądowych lub w przewidywaniu ryzyka pożaru w poszczególnych dzielnicach miast.

W grach algorytmicznych przeprowadzono ludzi przez serię problemów, w których tworzenie rozwiązań udoskonalało ich kod bazowy. Na przykład algorytm brytyjski nie działał zbyt dobrze w przewidywaniu ocen uczniów w szkołach, w których na pewne przedmioty uczęszczała mniejsza liczba uczniów. Dopiero ustandaryzowanie średniej minimalnej liczby uczestników pozwoliło na dobranie bardziej reprezentatywnej próby.

Przykładowo, w mniejszych szkołach uczniowie otrzymywali oceny przewidywane przez nauczycieli. Były one wyższe niż oceny wystawiane przez algorytm uczniom w większych placówkach. Oznaczało to więc, że decyzja była sprawiedliwa dla uczniów w małych szkołach, a niesprawiedliwa dla tych w większych, w których algorytm przyznawał niższe stopnie - tłumaczy TechXplore.

W przeprowadzonej grze starano się pokazać, że nie jest możliwe osiągnięcie idealnego wyniku. I że ani ludzie, ani algorytmy nie podejmują wyborów, które są sprawiedliwe dla wszystkich. Oznacza to, że algorytmy mogą tylko wspierać podejmowanie słusznych decyzji.

Technologia edukacyjna na przykładzie EdTech

Podczas gdy gry algorytmiczne koncentrują się na wykorzystaniu algorytmu opracowanego przez rządy i instytucje publiczne, algorytmy w edukacji są powszechnie wprowadzane jako część technologii edukacyjnej.

Adekwatnym przykładem korzystania z nowych narzędzi w rozwoju edukacji jest branża EdTech, która w ostatnich latach rozwija się bardzo dynamicznie w Australii. Na tym etapie firmy starają się zdominować wszystkie etapy edukacji poprzez: rejestrację, projektowanie kształcenia, doświadczenia uczenia się i uzyskiwanie pożądanych umiejętności w dłuższej perspektywie czasowej - wskazuje TechXplore.

Głównym czynnikiem zapalnym, odpowiedzialnym za rozwój algorytmów w edukacji jest sytuacja związana z COVID-19, która krytycznie przyspieszyła wykorzystywanie algorytmów do podejmowania decyzji w tym sektorze.

Chociaż te innowacje otwierają niesamowite możliwości, algorytmy niosą ze sobą również szereg wyzwań, z którymi musimy się zmierzyć jako społeczeństwo. Przykłady, takie jak algorytm egzaminów w Wielkiej Brytanii, pokazują nam, jak działają i jakie decyzje należy podjąć podczas ich projektowania. To sprawia, że jesteśmy zmuszeni odpowiedzieć sobie na nurtujące pytania: jakie wartości będą dla nas priorytetowe i jaki plan badań będziemy rozwijać.

Autor: Aleksander Mazur 


Chcemy być także bliżej Państwa – czytelników. Dlatego, jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: redakcja@cyberdefence24.pl. Przyszłość przynosi zmiany. Wprowadzamy je pod hasłem #CyberIsFuture. 

image
Fot. Reklama
CyberDefence24
CyberDefence24
KomentarzeLiczba komentarzy: 1
Fanklub Daviena i GB
czwartek, 25 listopada 2021, 12:14

Władze USA uznały, że algorytmy nie są sprawiedliwe. Np. gdy w korporacjach zastosowano algorytmy do rekrutacji, by wyeliminować rasizm i te algorytmy oceniały kwalifikacje i osiągnięcia, to okazały się straszliwie rasistowskie: przyjmowały samych Azjatów i białych a dyskryminowały murzynów... :D

Tweets CyberDefence24