Social media
#CyberMagazyn: Etyczna sztuczna inteligencja to fikcja? Dylematy jej twórców mogą uchronić nas przed zagrożeniem
„Musimy zrozumieć, czym tak naprawdę jest sztuczna inteligencja i jaką rolę może pełnić w naszym życiu. Sztuczna inteligencja nie istnieje w oderwaniu od nas - to my nadajemy jej sens. I to my ponosimy odpowiedzialność za jej ostateczny kształt” – podkreśla dr Dominika Kaczorowska-Spychalska dla CyberDefence24.pl. Gdzie zaprowadzi nas rozwój AI?
Długie rozmowy do nocy, wspólne dzielenie życia, zaspokajanie potrzeb emocjonalnych przy pomocy... systemu operacyjnego. To sceny z rewelacyjnego filmu „Ona”, w którym samotny pisarz zakochuje się w samodoskonalącej się sztucznej inteligencji, przemawiającej kobiecym głosem. Na razie to fikcja, ale czy AI kiedykolwiek zastąpi człowieka? Czy pytanie stawiane już dziś przez badaczy – o etykę systemów – jest kluczowe?
Sztuczna inteligencja to obecnie niewątpliwie jedno z popularniejszych haseł w świecie nowych technologii. Odmieniane przez wszystkie przypadki, uznawana jest za jedno z rozwiązań, które może zmienić naszą przyszłość. Już dziś analizuje zbiory danych, ułatwiając nam podjęcie decyzji czy wręcz decydując za nas, stawiając diagnozy, przygotowując prognozy przyszłych działań, komunikując się, weryfikując informacje, analizując w czasie rzeczywistym, wspierając działania żołnierzy na froncie, ale i człowieka w codziennym życiu.
Choć nadal nie istnieje maszyna w pełni autonomiczna, mogąca nas zastąpić, odczuwająca stany emocjonalne i nadal jest jedynie wzorowana na ludzkim mózgu, to do debaty publicznej coraz głośniej przebija się temat etyki. Czy bunt robotów to dystopiczna wizja, która może się ziścić?
Berliński Instytut Maxa Plancka ostrzegał, że ludzie nie będą w stanie w pełni kontrolować AI i przewidywać kierunków jej rozwoju. Wskazał również, że by powstrzymać sztuczną inteligencję przed pędem ku nieznanemu – zdaniem naukowców – powinno się m.in. ograniczyć maszynom dostęp do internetu. „Zdolność dzisiejszych komputerów do uczenia się dzięki technologii machine learningu sprawia, że bardzo trudno przewidzieć ich zachowanie” – wskazywał Iyad Rahwan, ekspert z Centrum Ludzi i Maszyn Instytutu Maxa Plancka.
Definicji sztucznej inteligencji jest wiele, ale biorąc pod uwagę tę zaprezentowaną przez amerykańskiego informatyka i laureata nagrody Turinga, John’a McCarthy’ego: to „inteligencja wykazywana przez urządzenia”. Obejmuje wiele dziedzin naukowych, stąd trudno jest ją jednoznacznie określić – z zakresu informatyki, psychologii, filozofii, logiki, neuronauki czy kognitywistyki. To także „konstruowanie maszyn, o których działaniu dałoby się powiedzieć, że są podobne do ludzkich przejawów inteligencji”.
Czytaj również: #CyberMagazyn: Sztuczna inteligencja zamiast hakerów? "Socjotechnika pozostanie ludzką domeną"
Podejście do AI wiele mówi o systemie kontroli państwowej
Światowi przywódcy dostrzegli już potencjalne zagrożenie, płynące ze strony AI. Do tego stopnia, że podejście do niej, może być utożsamiane z przestrzeganiem wolności i praw człowieka w systemach demokratycznych, albo ich naginaniem czy też łamaniem, jak to się dzieje w przypadku społeczeństw w Chinach, Birmie czy mniejszości ujgurskiej w Sinciangu, gdzie systemy do monitorowania twarzy i ich analizowania wykorzystuje się do kontroli.
W 2018 roku Komisja Europejska opublikowała europejską strategię na rzecz AI, a w 2019 roku opracowano wytyczne dotyczące „wiarygodnej” AI. W 2020 roku pojawiła się Biała Księga, która zakłada rozwój tej technologii w oparciu o zasadę zaufania. Prace te nadal trwają - w drugim kwartale br. Komisja Europejska przedstawiła projekt rozporządzenia dotyczącego wykorzystania AI (Artificial Inteligence Act), zgodnie z którym nowe technologie miałyby być tworzone i wykorzystywane zgodnie z wartościami, prawami podstawowymi i zasadami UE.
UE współpracuje także z USA w ramach wspólnej Rady ds. Handlu i Technologii, co ma pomóc w zdefiniowaniu jednolitych zasad „godnej zaufania” AI. Szefowa KE Ursula von der Leyen całkiem niedawno omawiała współpracę w tym zakresie z prezydentem USA Joe Bidenem.
Potencjalne ryzyko, jakie niesie rozwój AI zostało dostrzeżone przez naukowców i polityków, ale czy rozwiązuje to potencjalny problem „buntu maszyn”? Podejście „im większe ryzyko, tym większe obowiązki twórcy” i m.in. takie stwierdzenia, jak uznanie, że zakazane jest na terenie UE wykorzystywania AI do systemu oceny obywateli (tzw. social scoring, który działa już w Chinach), stosowanie technik podprogowych czy systemów, które wykorzystują słabość u dzieci może to zmienić. Jednak czy na pewno? Za ryzykowne uznano także m.in. zarządzanie przez sztuczną inteligencję infrastrukturą krytyczną, migracjami, egzekwowanie prawa przez AI czy podejmowanie decyzji dotyczących wymiaru sprawiedliwości.
Czy etyczne podejście do sztucznej inteligencji sprawi, że nie zahamuje to jej rozwoju, ale uchroni ludzkość przed utratą kontroli? Patrząc na przykład rozwoju Big Techów, ich brak odpowiedzialności i potrzebę ich regulacji o co najmniej kilka lat za późno, powinno zadać się pytanie czy - również w tym zakresie - zdążymy odpowiednio zareagować na czas?
Czytaj także: Po co nam sztuczna inteligencja? Rożek: „Otwiera drzwi do nowego rozdziału” [WYWIAD]
Dylematy twórcy
Naukowcy już teraz wskazują, że istnieją algorytmy, które uczą się szybciej niż przewidzieli to ich twórcy i są w stanie wymknąć się spod kontroli człowieka. O to, jakie największe dylematy ma twórca systemów opartych o sztuczną inteligencję zapytaliśmy prof. Aleksandrę Przegalińską, ekspertkę ds. sztucznej inteligencji w Akademii Leona Koźmińskiego oraz autorkę książki „Sztuczna Inteligencja. Nieludzka, arcyludzka”.
„Myślę, że dylematy dotyczą bardzo wielu rzeczy - z pewnością każdy badacz i badaczka zastanawiają się czasem, do czego wykorzystany zostanie stworzony przez nich model - jak wiadomo modele machine learning można skalować do innych domen problemowych niż te, o których pierwotnie myślą ich twórcy i twórczynie. Są też >>zmartwienia<< natury etycznej: czy system jest transparentny, wyjaśnialny, czy dane są dobrej jakości, czy model się nie zbiasuje. Taki ethical check to bardzo ważny aspekt odpowiedzialności za stworzone modele” – zaznacza.
Z kolei dr Dominika Kaczorowska-Spychalska, dyrektor Mikser Inteligentnych Technologii Wydziału Zarządzania UŁ, zaznacza: „Dążymy do tego, aby sztuczna inteligencja była bezstronna, a oparte na niej decyzje w pełni zrozumiałe, wyjaśnialne i pozbawione cech dyskryminacji algorytmicznej. Rosnąca stopniowo skala zastosowań AI wyzwala jednak szereg wyzwań, wobec których stoją zarówno twórcy opartych na niej rozwiązań, jak i organizacje wykorzystujące je w swojej działalności. Dotyczy to chociażby kwestii respektowania naszych praw podstawowych, bezpieczeństwa pozostawianych przez nas danych, poszanowania naszej prywatności czy wreszcie wyeliminowania potencjalnego ryzyka manipulacji naszymi decyzjami. W toczącą się dyskusję wpisuje się także szereg pytań o to, jak budować zaufanie użytkowników finalnych systemów, w których osadzona została sztuczna inteligencja, tak aby w pełni akceptowali oni fakt, że AI może przesądzać o ich awansie, oceniać płynność finansową i proponować metody leczenia” – zwraca uwagę ekspertka, komentując tę kwestię dla CyberDefence24.pl.
Jej zdaniem, projektując rozwiązania oparte na sztucznej inteligencji, trzeba myśleć kompleksowo, przewidując szereg potencjalnych scenariuszy, w których AI mogłaby okazać się tendencyjna czy stronnicza, po to aby je wyeliminować.
„Dotyczy to także optymalnego doboru danych na jakich trenuje sztuczna inteligencja, a które muszą być pełne i reprezentatywne. Kluczowy wydaje się tu proces kształcenia osób odpowiedzialnych za kreowanie i tworzenie rozwiązań opartych na AI. Powinien on kształtować i rozwijać umiejętności oraz kompetencje cyfrowe, wzbogacając je jednocześnie o te z zakresu nauk społecznych, humanistycznych czy artystycznych. Umożliwiłoby to przyszłym twórcom zrozumienie tego, w jaki sposób ich pomysły będą wpływały w praktyce na biznes czy społeczeństwo, ze szczególnym uwzględnieniem wynikających z tego wyzwań” – uważa dr Dominika Kaczorowska-Spychalska.
Natomiast Paweł Cisło, inżynier w Billennium, zajmujący się zagadnieniem machine learning, który w ostatnim czasie głównie pracuje przy tworzeniu platformy do przechowywania, wersjonowania i udostępniania modeli uczenia maszynowego, stwierdza, że „w porównaniu do klasycznych systemów komputerowych, przy sztucznej inteligencji musimy także zadbać o wiele dodatkowych czynników, gdzie dla przykładu - oprócz testowania kodu i samej infrastruktury - musimy także zaopiekować się testowaniem danych, degradacją naszych modeli czy też monitorowaniem zwracanych predykcji”.
„Upraszczając, mamy do czynienia z wieloma ruchomymi elementami, które przy niedługim upływem czasu mogą zwracać całkowicie inne rezultaty. Kiedy natomiast miałbym odpowiedzieć na to pytanie jako data scientist, z pewnością najwięcej problemów znajdziemy przy procesie zbierania danych, szczególnie, gdy sami musimy je wytworzyć, a później odpowiednio dostosować do zaprojektowanego systemu. Natomiast, dobieranie odpowiedniej architektury uczenia maszynowego oraz jej nastrojenie, jest z reguły najprzyjemniejszą częścią, która stanowi najmniejszy wachlarz problemów” – wskazuje dla CyberDefence24.pl.
Na nasze pytanie, czy możliwe jest, by sztuczna inteligencja nie była obciążona schematami myślenia jej twórcy odpowiada, że nie można zaprzeczyć, iż „ludzie codziennie podejmują wiele stronniczych decyzji, szczególnie w sytuacjach, kiedy sami nie zdają sobie z tego sprawy”.
„Być może niektórzy z nas pamiętają historię bota Microsoftu (Tay), który na bazie danych z Twittera stał się szczególnie rasistowski. Sytuacja ta przypomina nam, że schemat >>myślenia<< sztucznej inteligencji jest bezpośrednio oparty na wprowadzanych danych, tak więc, aby maszyna posiadała bardziej otwarty umysł, warto zadbać, aby zbiór wykorzystywanych danych był w określonym stopniu zdywersyfikowany” – przypomina nasz rozmówca.
Wskazuje zatem, że projektując kolejne systemy, nie można zapomnieć, by weryfikować pochodzenie zbioru danych, gdzie jego stronniczość można zawsze zweryfikować przy użyciu statystycznych obliczeń, czy też pomóc sobie obrazowaniem danych na różnego typu wykresach. „W przypadku posiadania nieobiektywnych danych powinniśmy przede wszystkim zrozumieć powód takiej sytuacji, a później zdecydować o dywersyfikacji źródła naszych informacji” – ocenia.
Prof. Aleksandra Przegalińska jest zdania, że zawsze bezpieczniejszym rozwiązaniem jest praca kolektywna, zbiorowa - im więcej osób partycypuje w budowaniu modelu AI, tym jest finalnie bezpieczniejszy. Dlatego cześć modeli - w duchu kultury otwartej współpracy - jest prezentowana na różnych platformach.
Etyczna AI to science fiction?
Trudno jednoznacznie określić podejście badaczy do rozwoju AI i tego, gdzie zaprowadzi nas to w przyszłości. Na pytanie, czy sztuczna inteligencja kiedykolwiek „wyprzedzi” swojego twórcę Paweł Cisło przypomina, że sztuczna inteligencja nie raz już pokonała najlepszych szachistów czy też graczy bardziej złożonych gier jak AlphaGo, czy Dota 2.
„Natomiast, nie natknąłem się jeszcze na przykład, gdzie zbiór komputerowych obliczeń zdał stuprocentowo pomyślnie test Turinga, mający za zadanie sprawdzić, czy maszyna potrafi samodzielnie myśleć. Z pewnością niektóre systemy były bardzo blisko, co świadczy o coraz inteligentniejszych rozwiązaniach, których nie sposób jeszcze porównać do myślenia w sposób ludzki. W tym momencie warto zastanowić się, czy pomimo swojej nieprzeciętnej inteligencji, sztuczna inteligencja będzie kiedykolwiek świadoma swojego istnienia? To pytanie jest bardzo często omawiane przy rozważaniach, czy pewnego dnia roboty przejmą panowanie nad porządkiem świata, gdzie osobiście stwierdzę, że na tę chwilę jest zbyt wcześnie, by swobodnie odpowiedzieć na to pytanie” – zaznacza.
O tym, że sztuczna inteligencja w pewnych aspektach wyprzedziła człowieka, mając niesamowitą „inteligencję obliczeniową” przypomina także prof. Aleksandra Przegalińska.
„Przetwarza ogromne wolumeny danych numerycznych, tekstowych i obrazów - znacznie, a niekiedy nieporównanie szybciej i efektywniej - niż ludzki mózg, więc są przestrzenie, w których AI wyprzedza człowieka. Jest ich jednak nadal stosunkowo mało, a sztuczna inteligencja, a raczej statystyczne modele uczenia maszynowego, bo z tym mamy dziś do czynienia”, zatem stanowią one - cały czas - narzędzie w ludzkich rękach.
Dr Dominika Kaczorowska-Spychalska uważa, że wizja pewnej „nadinteligencji” o nieograniczonych możliwościach zdecydowanie rozpala naszą wyobraźnię.
„Nie tyle powinniśmy się jednak zastanawiać nad tym, czy taka ewentualność jest realna albo kiedy ona nastąpi, ale jakie realne wyzwania to przed nami stawia. Musimy zrozumieć, czym tak naprawdę jest sztuczna inteligencja i jaką rolę może pełnić w naszym życiu. Tworząc rozwiązania oparte na niej i korzystając z nich, zmieniamy się bowiem jako ludzie. Rozwijamy nasze zdolności, wychodzimy poza pewne dotychczasowe granice i nabywamy nowych umiejętności. Sztuczna inteligencja nie istnieje w oderwaniu od nas - to my nadajemy jej sens. I to my ponosimy odpowiedzialność za jej ostateczny kształt” – przypomina.
Jaka będzie przyszłość AI?
Ekspertka ds. etycznego wykorzystania sztucznej inteligencji Gry Hasselbalch z DataEthics, o której słowach pisaliśmy na łamach CyberDefence24.pl, podkreślała, że AI daje szereg korzyści i możliwości do wykorzystania w codziennym życiu. Jednak nie należy zapominać, że „kto ma dane, ten ma władzę”, a to właśnie na podstawie danych działają algorytmy sztucznej inteligencji.
„Musimy mieć podejście krytyczne, ponieważ taka infrastruktura jest wrażliwa społecznie, tu warto mieć na uwadze fakt sprawowania władzy na przykład - totalitarnej. Trzeba wtedy zdecydować, w czyim interesie to służy, w jakim systemie wartości będzie rozwijał się globalny ruch technologiczny” - wskazywała.
Dlatego kluczowe wydaje się dzisiaj pytanie czy możliwe jest w ogóle stworzenie „etycznej” sztucznej inteligencji?
Dr Dominika Kaczorowska-Spychalska zaznacza, że prace nad etyczną sztuczną inteligencją trwają od kilku lat, a ich wyniki są publikowane w dokumentach Paramentu Europejskiego, Komisji Europejskiej, OECD czy UNESCO. To ważny obszar działań związanych z rozwojem technologii cyfrowych i tworzeniem ram ich przyszłych zastosowań.
„Proponowane rozwiązania w tym zakresie mają z jednej strony zwiększać zaufanie wobec AI, z drugiej, sprzyjać rozwojowi gospodarki i społeczeństwa poszczególnych państw czy regionów, z poszanowaniem wyznawanych przez nie wartości. Warto w tym zakresie wspomnieć chociażby o najnowszym dokumencie Komisji Europejskiej, systematyzującym możliwe ryzyko z tytułu stosowania sztucznej inteligencji. Stworzenie etycznej AI to jednak spore wyzwanie, zwłaszcza, że wraz z rozwojem tej technologii i coraz większym jej przenikaniem do różnych sfer naszego życia będą pojawiały się kolejne obszary wymagające analizy i potencjalnej regulacji. To także czas umożliwi ocenę ich celowości i przydatności” – podkreśla.
Prof. Aleksandra Przegalińska przekazała nam, że z pewnością możliwe jest przestrzeganie kodeksu najlepszych praktyk dotyczących AI, np. w duchu propozycji Harvard Berkman Klein Center - maksymalnej wyjaśnialności, transparentności, podejścia typu federated data, które chroni prywatność. „Myślę, że jeśli chodzi o etyczność AI, to cały czas jesteśmy w podroży w kierunku godnej zaufania sztucznej inteligencji, ale w ostatnich latach wiele kroków zostało wykonanych” – zaznacza ekspertka.
Natomiast Paweł Cisło zaznacza, że z pewnością prościej byłoby utworzyć „moralną sztuczną inteligencję”, działającą według ogólnie przyjętych zasad, jak chociażby „nie kradnij” czy „nie zabijaj”.
„Etyka jest natomiast działem filozoficznym, gdzie może się ona znacząco różnić, choćby dla innego rejonu geograficznego. Gdybyśmy na przykład projektowali samochód autonomiczny, to niełatwo byłoby zdecydować, czy przy dużej prędkości i nagłej zmianie sytuacji na drodze, nasz pojazd powinien wjechać w okoliczny tłum pieszych czy też może uderzyć w poboczną barierkę i pozbawić życia nas samych. W opisanej sytuacji możemy sprawdzić się sami, używając platformy stworzonej przez MIT (moralmachine.net). Przekonując się na własnej skórze, dostrzeżemy, że etyka nie jest jasnym tematem, szczególnie w tematach sztucznej inteligencji” – podkreśla ekspert.
Dodaje, że w kwestii etyki warto przede wszystkim już dziś zacząć przygotowywać nasz system do wczesnych owoców pracy Komisji Europejskiej.
„Warto zauważyć, że już dziś kilka większych firm, jak chociażby IBM, podpisuje się pod koncepcją >>Trustworthy AI<<, a więc sztuczną inteligencją dbającą o nasze prawa, potrzeby i prywatność. Podsumowując, myślę, że możemy dążyć do odgórnie ustalonej etyki, lecz z pewnością będzie to czasochłonny proces potrzebujący ciągłej pielęgnacji” – podsumowuje.
Chcemy być także bliżej Państwa – czytelników. Dlatego, jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected]. Przyszłość przynosi zmiany. Wprowadzamy je pod hasłem #CyberIsFuture.
jk
Namolnie wciskane tezy o buncie maszyn są ogłupiającym pomyleniem pojęć bo realnie si raczej stworzy rzeczywistość w której człowiek zostanie usunięty jako zbędny dla funkcjonowania systemu, do czego zresztą lewica i elity świadomie dążą promując takie a nie inne tendecje kulturowe. Sama promowana dyskusja o si ma dezinformacyjny kształt i charakter.
Patryk
Że też wcześniej nie znałem tego serwisu! Ciekawe i obszerne artykuły a przy tym brak durnych reklam, od tej pory będe tutaj stałym bywalcem.