CYBERMAGAZYN
#CyberMagazyn: Sztuczna inteligencja zagraża demokracji. Może wpływać na wybory
Demokracja bardzo długo była uznawana za system odporny na wszelkiego rodzaju wypaczenia i błędy. Przekonanie to zmieniły media społecznościowe, a teraz obawy budzi sztuczna inteligencja. Jakie zagrożenia niesie dla systemu demokratycznego jej szybki rozwój?
Równość, wolność i prawa jednostki - to fundamenty, na których budujemy pojmowanie systemu demokratycznego w potocznym rozumieniu. Do tej pory wydawało nam się, że jego stabilność jest niemalże nie do ruszenia - to rok 2016 i manipulacja wyborami w USA, w których zwyciężył Donald Trump, zaczęła stopniowo zmieniać nasze przekonania w tym temacie.
Szybki rozwój sztucznej inteligencji, a szczególnie algorytmów generatywnych, sprawił, że nasze obawy wzrosły - i słusznie. Technologia ta ma niewątpliwy potencjał usprawnienia wielu dziedzin naszego życia, ale obecny brak regulacji i etyczny „Dziki Zachód" sprawiają, że dopóki sytuacja w zakresie ram funkcjonowania AI w społeczeństwie się nie zmieni - będzie stwarzała ryzyko dla procesów demokratycznych.
Czytaj też
Algorytmy w służbie władzy
Jednym z najrzadziej wymienianych zagrożeń związanych ze sztuczną inteligencją i jej możliwym ryzykiem dla demokracji, jest koncentracja władzy przez algorytmy.
Algorytmy potrzebują gromadzenia ogromnych ilości danych, które następnie przetwarzają i analizują dla potrzeb tych, którzy kontrolują oparte na nich modele. Nie jest tu specjalnie trudno o logiczną konkluzję - kto ma najpotężniejsze algorytmy, ten ma władzę, gdyż dysponuje absolutnie bezprecedensowym dostępem do wręcz niewiarygodnych ilości informacji oraz mocy obliczeniowej.
W społeczeństwach demokratycznych koncentracja władzy w rękach nielicznych może prowadzić do oczywistych negatywnych konsekwencji - zaburzenia równości i uczciwości przez sytuację, w której mała grupa podmiotów - partia polityczna, zamknięty krąg biznesowy lub innego rodzaju podmiot - ma wszelkie środki wpływania na opinię publiczną, manipulowania wynikiem wyborów (niekoniecznie przez ingerencję w proces), a także do kontrolowania rozpowszechnianych w mediach narracji.
Czytaj też
Prywatność niezbędna dla demokracji
Jeśli weźmiemy pod uwagę szczegółowość danych, które są dziś gromadzone o każdym z nas w internecie i które są niezbędne dla sprawnego uczenia się modeli sztucznej inteligencji wykorzystywanych np. w zaawansowanej analizie na potrzeby zarządzania czy biznesu, to możemy, a nawet powinniśmy zacząć martwić się o prywatność.
Prywatność jako taka, jedno z praw podstawowych, jest także fundamentalną wartością demokratyczną, bo na niej opiera się wiele indywidualnych wolności. Systemy algorytmów masowo gromadzących i przetwarzających dane mogą jednak przełożyć się na bezpośrednie ryzyko i nadużycia dla prywatności, służąc jako narzędzie wykorzystywania naszych danych osobowych nie tylko przez firmy kierujące do nas przekaz marketingowy, ale także przez polityków wpływających na nasze wybory przez profilowanie i ciągłą inwigilację.
Zwłaszcza te ostatnie praktyki - inwigilacja i profilowanie - przekładają się na straty dla demokracji, bo prowadzą do bezpośrednich konsekwencji dla państwa odczuwalnych już nie w dłuższym czasie, a w perspektywie nierzadko krótszej niż jedna kadencja. To utrata zaufania do instytucji demokratycznych, a także wiary w mechanizmy społeczeństwa obywatelskiego.
Czytaj też
Dezinformacja i manipulacja
Na łamach naszego serwisu pisaliśmy wielokrotnie o potencjale, jaki algorytmy generatywnej sztucznej inteligencji mają w kontekście dezinformacji i operacji wpływu . Już przed erą sztucznej inteligencji, w czasie dominacji „klasycznych" mediów społecznościowych, dezinformacja stała się ogromnym problemem, z którym niestety nie można powiedzieć, abyśmy wygrywali.
Sztuczna inteligencja może jeszcze pogorszyć sytuację, pozwalając m.in. na automatyzację generowania fałszywych treści , postów w mediach społecznościowych wprowadzających w błąd czy deepfake'ów na naprawdę masową skalę.
Same deepfakes są zjawiskiem, którego nie kontrolujemy w żaden sposób, a hiperrealistyczne, lecz z gruntu fałszywe obrazy, nagrania wideo i dźwięki mogą prowadzić do sprawnego wykorzystywania emocji opinii publicznej do manipulowania nią. Tym samym, systemy sztucznej inteligencji mogą bezpośrednio wpływać na integralność wyborów demokratycznych, debaty publicznej i wszelkich procesów podejmowania decyzji - bo możemy decydować w oparciu o złe, fałszywe przesłanki. Tym samym, kolejny raz mówimy o erozji demokracji.
Czytaj też
Nierówności i niesprawiedliwość
O tym, że algorytmy sztucznej inteligencji w procesach zautomatyzowanego podejmowania decyzji powinny pozostawać pod ścisłą kontrolą lub być całkowicie zakazane, gdy chodzi np. o kwestie dotyczące funkcjonowania społeczeństwa i relacji w nim, na łamach CyberDefence24.pl debatowaliśmy niejednokrotnie.
Algorytmy są szkolone w oparciu o wielkie zbiory danych, które zawierają uprzedzenia tak silne, jak osoby odpowiedzialne za ich budowę i materiał, w oparciu o który powstały. Są niedoskonałe, odzwierciedlając historię naszych społecznych obaw , kompleksów, a także stereotypów, które utrwaliły się w tekstach, obrazach i innych danych gromadzonych przez algorytmy.
W chwili, w której systemy AI wykorzystywane są np. przez wymiar sprawiedliwości, sektor medyczny czy edukacyjny, stajemy się bezradni wobec tych uprzedzeń - i w zaskakujący sposób mogą one do nas wrócić, prowadząc do nieuczciwych i podejmowanych nietransparentnie decyzji, których sami będziemy ofiarami.
Algorytmy predyktywne stosowane w wymiarze sprawiedliwości np. w USA niejednokrotnie prowadziły do wydawania fałszywych oskarżeń wobec osób, które nie popełniły przestępstwa, ale zdaniem sztucznej inteligencji istniało takie prawdopodobieństwo - ze względu na ich kolor skóry czy złą dzielnicę, w której mieszkały. I tu znów - mamy do czynienia z utratą zaufania do demokracji i instytucji państwa, które podejmuje niesprawiedliwe decyzje posługując się niesprawiedliwymi z gruntu narzędziami - opartymi o nasze własne uprzedzenia.
Czytaj też
Zabezpieczyć interesy społeczeństwa
Czy wyciągnęliśmy lekcję z zaniedbań regulacyjnych, które towarzyszyły nam w erze mediów społecznościowych? Być może - świadczy o tym choćby gorąca debata nad Aktem o sztucznej inteligencji, który niestety wejdzie w życie za dwa, trzy lata - o czym mówiła sama unijna komisarz Margrethe Vestager .
Tylko regulacje mogą jednak pozwolić w pore wziąć w karby branżę, która obecnie funkcjonuje nieco na wzór „Dzikiego Zachodu".
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].