Reklama

CYBERMAGAZYN

#CyberMagazyn: Sztuczna inteligencja zagraża demokracji. Może wpływać na wybory

Autor. Thomas Hawk / Flickr

Demokracja bardzo długo była uznawana za system odporny na wszelkiego rodzaju wypaczenia i błędy. Przekonanie to zmieniły media społecznościowe, a teraz obawy budzi sztuczna inteligencja. Jakie zagrożenia niesie dla systemu demokratycznego jej szybki rozwój?

Reklama

Równość, wolność i prawa jednostki - to fundamenty, na których budujemy pojmowanie systemu demokratycznego w potocznym rozumieniu. Do tej pory wydawało nam się, że jego stabilność jest niemalże nie do ruszenia - to rok 2016 i manipulacja wyborami w USA, w których zwyciężył Donald Trump, zaczęła stopniowo zmieniać nasze przekonania w tym temacie.

Reklama

Szybki rozwój sztucznej inteligencji, a szczególnie algorytmów generatywnych, sprawił, że nasze obawy wzrosły - i słusznie. Technologia ta ma niewątpliwy potencjał usprawnienia wielu dziedzin naszego życia, ale obecny brak regulacji i etyczny „Dziki Zachód" sprawiają, że dopóki sytuacja w zakresie ram funkcjonowania AI w społeczeństwie się nie zmieni - będzie stwarzała ryzyko dla procesów demokratycznych.

Czytaj też

Algorytmy w służbie władzy

Jednym z najrzadziej wymienianych zagrożeń związanych ze sztuczną inteligencją i jej możliwym ryzykiem dla demokracji, jest koncentracja władzy przez algorytmy.

Reklama

Algorytmy potrzebują gromadzenia ogromnych ilości danych, które następnie przetwarzają i analizują dla potrzeb tych, którzy kontrolują oparte na nich modele. Nie jest tu specjalnie trudno o logiczną konkluzję - kto ma najpotężniejsze algorytmy, ten ma władzę, gdyż dysponuje absolutnie bezprecedensowym dostępem do wręcz niewiarygodnych ilości informacji oraz mocy obliczeniowej.

W społeczeństwach demokratycznych koncentracja władzy w rękach nielicznych może prowadzić do oczywistych negatywnych konsekwencji - zaburzenia równości i uczciwości przez sytuację, w której mała grupa podmiotów - partia polityczna, zamknięty krąg biznesowy lub innego rodzaju podmiot - ma wszelkie środki wpływania na opinię publiczną, manipulowania wynikiem wyborów (niekoniecznie przez ingerencję w proces), a także do kontrolowania rozpowszechnianych w mediach narracji.

Czytaj też

Prywatność niezbędna dla demokracji

Jeśli weźmiemy pod uwagę szczegółowość danych, które są dziś gromadzone o każdym z nas w internecie i które są niezbędne dla sprawnego uczenia się modeli sztucznej inteligencji wykorzystywanych np. w zaawansowanej analizie na potrzeby zarządzania czy biznesu, to możemy, a nawet powinniśmy zacząć martwić się o prywatność.

Prywatność jako taka, jedno z praw podstawowych, jest także fundamentalną wartością demokratyczną, bo na niej opiera się wiele indywidualnych wolności. Systemy algorytmów masowo gromadzących i przetwarzających dane mogą jednak przełożyć się na bezpośrednie ryzyko i nadużycia dla prywatności, służąc jako narzędzie wykorzystywania naszych danych osobowych nie tylko przez firmy kierujące do nas przekaz marketingowy, ale także przez polityków wpływających na nasze wybory przez profilowanie i ciągłą inwigilację.

Zwłaszcza te ostatnie praktyki - inwigilacja i profilowanie - przekładają się na straty dla demokracji, bo prowadzą do bezpośrednich konsekwencji dla państwa odczuwalnych już nie w dłuższym czasie, a w perspektywie nierzadko krótszej niż jedna kadencja. To utrata zaufania do instytucji demokratycznych, a także wiary w mechanizmy społeczeństwa obywatelskiego.

Czytaj też

Dezinformacja i manipulacja

Na łamach naszego serwisu pisaliśmy wielokrotnie o potencjale, jaki algorytmy generatywnej sztucznej inteligencji mają w kontekście dezinformacji i operacji wpływu . Już przed erą sztucznej inteligencji, w czasie dominacji „klasycznych" mediów społecznościowych, dezinformacja stała się ogromnym problemem, z którym niestety nie można powiedzieć, abyśmy wygrywali.

Sztuczna inteligencja może jeszcze pogorszyć sytuację, pozwalając m.in. na automatyzację generowania fałszywych treści , postów w mediach społecznościowych wprowadzających w błąd czy deepfake'ów na naprawdę masową skalę.

Same deepfakes są zjawiskiem, którego nie kontrolujemy w żaden sposób, a hiperrealistyczne, lecz z gruntu fałszywe obrazy, nagrania wideo i dźwięki mogą prowadzić do sprawnego wykorzystywania emocji opinii publicznej do manipulowania nią. Tym samym, systemy sztucznej inteligencji mogą bezpośrednio wpływać na integralność wyborów demokratycznych, debaty publicznej i wszelkich procesów podejmowania decyzji - bo możemy decydować w oparciu o złe, fałszywe przesłanki. Tym samym, kolejny raz mówimy o erozji demokracji.

Czytaj też

Nierówności i niesprawiedliwość

O tym, że algorytmy sztucznej inteligencji w procesach zautomatyzowanego podejmowania decyzji powinny pozostawać pod ścisłą kontrolą lub być całkowicie zakazane, gdy chodzi np. o kwestie dotyczące funkcjonowania społeczeństwa i relacji w nim, na łamach CyberDefence24.pl debatowaliśmy niejednokrotnie.

Algorytmy są szkolone w oparciu o wielkie zbiory danych, które zawierają uprzedzenia tak silne, jak osoby odpowiedzialne za ich budowę i materiał, w oparciu o który powstały. Są niedoskonałe, odzwierciedlając historię naszych społecznych obaw , kompleksów, a także stereotypów, które utrwaliły się w tekstach, obrazach i innych danych gromadzonych przez algorytmy.

W chwili, w której systemy AI wykorzystywane są np. przez wymiar sprawiedliwości, sektor medyczny czy edukacyjny, stajemy się bezradni wobec tych uprzedzeń - i w zaskakujący sposób mogą one do nas wrócić, prowadząc do nieuczciwych i podejmowanych nietransparentnie decyzji, których sami będziemy ofiarami.

Algorytmy predyktywne stosowane w wymiarze sprawiedliwości np. w USA niejednokrotnie prowadziły do wydawania fałszywych oskarżeń wobec osób, które nie popełniły przestępstwa, ale zdaniem sztucznej inteligencji istniało takie prawdopodobieństwo - ze względu na ich kolor skóry czy złą dzielnicę, w której mieszkały. I tu znów - mamy do czynienia z utratą zaufania do demokracji i instytucji państwa, które podejmuje niesprawiedliwe decyzje posługując się niesprawiedliwymi z gruntu narzędziami - opartymi o nasze własne uprzedzenia.

Czytaj też

Zabezpieczyć interesy społeczeństwa

Czy wyciągnęliśmy lekcję z zaniedbań regulacyjnych, które towarzyszyły nam w erze mediów społecznościowych? Być może - świadczy o tym choćby gorąca debata nad Aktem o sztucznej inteligencji, który niestety wejdzie w życie za dwa, trzy lata - o czym mówiła sama unijna komisarz Margrethe Vestager .

Tylko regulacje mogą jednak pozwolić w pore wziąć w karby branżę, która obecnie funkcjonuje nieco na wzór „Dzikiego Zachodu".

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Komentarze

    Reklama