Reklama

Social media

Etyczna sztuczna inteligencja jest możliwa? „Kto ma dane, ten ma władzę”

fot. Possessed Photography/ Unsplash/ Domena publiczna
fot. Possessed Photography/ Unsplash/ Domena publiczna

„Mało się mówi o wartościach, etyce, dynamice władzy, która stoi za sztuczną inteligencją i jej wykorzystaniem. Dzisiaj mówimy o AI, ale jak to się przekłada na nadanie władzy obywatelom, politykom, krajom?” – zwraca uwagę ekspertka ds. etycznego wykorzystania sztucznej inteligencji Gry Hasselbalch z DataEthics.

Podczas panelu „Otwarte dane i dzielenie dostępu do danych dla rozwoju sztucznej inteligencji/nowych technologii” w ramach konferencji Otwarte dane, jedna z ekspertek Gry Hasselbalch z DataEthics zwróciła uwagę na etyczne aspekty rozwoju sztucznej inteligencji, która jej zdaniem może być „stronnicza”.

Przypomniała, że obecnie istnieje wiele – konkurencyjnych wobec siebie – idei rozwoju sztucznej inteligencji i korzyści płynących z jej wykorzystania. Chodzi zarówno o aspekt systemowy, prawny, jak i przede wszystkim – ludzki.

„Mało się mówi o wartościach, etyce, dynamice władzy, która stoi za sztuczną inteligencją i jej wykorzystaniem. Dzisiaj mówimy o AI, ale jak to się przekłada na nadanie władzy obywatelom, politykom, krajom?” – zapytała ekspertka.

Kto ma dane, ten ma władzę

Według niej sztuczna inteligencja może być wykorzystna w rozwiązywaniu problemów dnia codziennego, związanych m.in. z zarządzeniem infrastrukturą w miastach w zakresie np. zarządzania odpadami, systemem oświetlenia, oszczędzania prądu.

„Te dane mogą dotyczyć ludzi. Jest bardzo wielu interesariuszy - możemy mówić o komercyjnych i publicznych, naukowcy także chcieliby z takich danych korzystać. Państwo chciałoby w oparciu o te dane kontrolować procesy w miastach. Istnieje ryzyko, że dane będą służyły najpotężniejszym. W tym kontekście trzeba myśleć o nich jako o czymś wspólnym: nie tylko dla państw, ale i obywateli. To daje moc, by je wykorzystywać, by życie obywateli uległo poprawie” – wskazała Gry Hasselbalch.

Kto miałby zarządzać naszymi danymi?

Jej zdaniem można także zbudować infrastrukturę, która będzie chroniła dane obywateli. „Można myśleć o ich ochronie. Widzę tu aspekty etyczne: centralna baza danych opracowana przez jedną firmę, np. do radzenia sobie z korkami ulicznymi, mogłaby być połączona z monitoringiem ulic, monitorować wypadki, powiadamiać policję, być koordynowana z innymi rejestrami, być może z systemem rozpoznawaniem twarzy, nielegalnym parkowaniem. Można by na żywo reagować” – podała przykłady.

Zwróciła jednak uwagę, że unaoczniają one problem: nad takim systemem obywatele nie mieliby kontroli. „Dane są generowane przez system, a one służą tylko najpotężniejszym interesariuszom. To już nie jest science fiction, mamy już wiele przykładów wykorzystania AI w systemie społecznym, sondażowym czy finansowym” – oceniła.

#CyberMagazyn: Sztuczna inteligencja zamiast hakerów? "Socjotechnika pozostanie ludzką domeną"

Warto mieć podejście krytyczne wobec wykorzystania danych i sztucznej inteligencji do ich analizy – wszystko bowiem zależy, kto będzie w ich posiadaniu.

„Musimy mieć podejście krytyczne, ponieważ taka infrastruktura jest wrażliwa społecznie, tu warto mieć na uwadze fakt sprawowania władzy na przykład - totalitarnej. Trzeba wtedy zdecydować, w czyim interesie to służy, w jakim systemie wartości będzie rozwijał się globalny ruch technologiczny. Dlatego trzeba rozmawiać nie tylko o technologii, konkurencji, ale i o etyce. AI może zmienić nasze życie, tworzy okazje i możliwości, prowadzi do gromadzenia danych. Możemy wyobrażać sobie wiele nowych możliwości dla rozwiązań korzystnych dla zdrowia i życia, i ta narracja dominuje wśród polityków. Jednak trzeba mieć na względzie, że to narracja władzy” – podsumowała ekspertka.

/NB


Chcemy być także bliżej Państwa – czytelników. Dlatego, jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected]. Przyszłość przynosi zmiany. Wprowadzamy je pod hasłem #CyberIsFuture. 

image
Fot. Reklama

Reklama

Komentarze

    Reklama