Reklama

Polityka i prawo

Sztuczna inteligencja ma podlegać ludziom

Fot. rufio1/Pixabay
Fot. rufio1/Pixabay

Na Uniwersytecie Montrealskim zakończono prace nad projektem zasad rządzących sztuczną inteligencją. Według zapisów Deklaracji Montrealskiej systemy Artificial Intelligence (AI) muszą szanować prywatność i podlegać kontroli. 

Kanadyjskie media zwracały uwagę, że deklarację należy czytać w kontekście takich wydarzeń, jak skandal z firmą Cambridge Analytica czy wprowadzanie systemów rozpoznawania twarzy przez rządy i siły policyjne.

Montreal jest jednym z kanadyjskich miast, w których firmy takie jak Google, Facebook czy Microsoft utworzyły centra prac nad AI. Akurat w dniu ogłoszenia deklaracji inwestycje ogłosiły trzy firmy z Wielkiej Brytanii: QuantumBlack, WinningMinds i BIOS.

„Po raz pierwszy w historii ludzkości jest możliwe tworzenie autonomicznych systemów zdolnych wykonywać złożone zadania, o których dotychczas sądzono, że zarezerwowane są dla naturalnej inteligencji” - napisano w preambule deklaracji, nad którą przez rok pracowało 100 specjalistów. Podkreślono też, że „pierwszym zagrożeniem związanym z rozwojem AI jest złudzenie, że można zapanować nad przyszłością dzięki obliczeniom”. „Zredukowanie społeczeństwa do liczb i rządzenie nim dzięki algorytmom jest starym marzeniem” i stąd też celem deklaracji jest dostarczenie „etycznego kompasu”.

„Sztuczna inteligencja powinna przyczyniać się do zwiększenia dobrostanu wszystkich czujących istot” – tak brzmi pierwsza z 10 zasad.

Portal publicznej telewizji CBC cytował profesor filozofii Christine Tappolet z Uniwersytetu Montrealskiego, uczestniczącą w pracach nad deklaracją, która podkreślała, że konieczne są normy i wartości, które będą towarzyszyć rozwojowi nowych technologii.

Stąd punkt drugi deklaracji, o respektowaniu autonomii człowieka i wspomaganiu zwiększania przez człowieka kontroli nad własnym życiem i otoczeniem. W punkcie trzecim zawarto zasadę ochrony prywatności.

Kolejne punkty dotyczą respektowania zasad solidarności społecznej i kontroli demokratycznej nad istniejącymi systemami AI. Zasada szósta dotyczy zobowiązania twórców systemów AI do wzmacniania równości i tworzenia społeczeństw bazujących na sprawiedliwości, zasada siódma – utrzymania różnorodności społecznej i inkluzywności.

Zasady od ósmej do dziesiątej dotyczą bezpieczeństwa: przewidywania negatywnych zastosowań, utrzymywania ludzkiej odpowiedzialności i nieprzerzucania jej na systemy AI oraz zapewnienia odpowiedzialnego rozwoju.

Tappolet zwróciła uwagę na obawy związane z konstrukcją nowych typów broni, które mogłyby samodzielnie podejmować decyzje wspomagane przez AI.

Na potrzebę stworzenia standardów w pracach nad AI wskazało we wrześniowym raporcie Citizen Lab przy Uniwersytecie Toronto. Napisano w nim m.in., że wykorzystanie przez rząd AI do przetwarzania wniosków imigracyjnych – takie badania prowadzi rząd w Ottawie - może prowadzić do dyskryminacji, naruszeń prywatności i praw człowieka. Tymczasem mogą pojawiać się sytuacje, gdy w grę wchodzi ludzkie życie.

Autorzy raportu sporządzili siedem rekomendacji dla rządu federalnego, wzywając m.in. do powołania niezależnej instytucji nadzorczej oraz federalnego zespołu badawczego, „aby lepiej zrozumieć obecny i przyszły wpływ zautomatyzowanych systemów podejmowania decyzji na prawa jednostki i szerzej na interes publiczny”.

Potrzebą praw rządzących sztuczną inteligencją zajmowali się już dawno powieściopisarze, a na powieści zwracały uwagę także rządy. W 1942 roku Isaac Asimov w opowiadaniu „Zabawa w berka” sformułował trzy prawa robotyki, do których dodał następnie prawo nadrzędne: Robot nie może skrzywdzić ludzkości lub poprzez zaniechania działania doprowadzić do uszczerbku dla ludzkości.

Prawom robotyki Asimova i jego koncepcji psychohistorii pozwalającej na bazie statystycznej przewidywać przyszłość rząd Kanady już kiedyś poświęcał uwagę. Na stronach internetowych Canadian Forests Service (lasy państwowe) znajduje się artykuł z 1996 roku, w którym podkreślono, że prognozowanie zachowań ludzkich jest już możliwe, tak jak przewidywał to m.in. Asimov. Z kolei Frank Herbert w sześciotomowym cyklu „Diuna” pisał o krucjacie przeciw komputerom, której rezultatem było obowiązujące w przyszłości przykazanie „nie będziesz czynił machin na podobieństwo rozumu ludzkiego”.

SZP/PAP

Reklama
Reklama

Komentarze