Wiceszefowa KE: do nas należy odpowiedzialność, żebyśmy nie skończyli w świecie "Terminatora"

1 lipca 2021, 08:18
33465711484_d233b93228_c
fot. Margrethe Vestager / Flickr / CC BY-SA 2.0

Margrethe Vestager, wiceszefowa Komisji Europejskiej, odpowiedzialna za cyfryzację mówi PAP, czym jest sztuczna inteligencja i czy pewnego dnia obudzimy się w świecie z "Terminatora", czy "Łowcy Androidów".

PAP: Jest pani odpowiedzialna w KE za cyfryzację. Jedno z głównych zadań, którego pani się teraz podjęła, to ustanowienie ram prawnych regulujących używanie sztucznej inteligencji (AI). Gdyby miała pani wytłumaczyć 10-latkowi, czym jest AI jak by to pani zrobiła?

Margrethe Vestager: Powiedziałabym, że AI to pomocnik. Który np. doradza, jaki film obejrzeć. Osobiście mam do czynienia z mnóstwem problemów w moim życiu zawodowym. W tym sensie, że moja praca polega na rozwiązywaniu problemów. W związku z tym nie lubię oglądać filmów o problemach. Kiedy oglądam film, to chcę się odprężyć i miło spędzić czas. Sięgam więc po coś w stylu "Cztery wesela i pogrzeb", jakąś komedię romantyczną. I sztuczna inteligencja będzie to wiedziała. Zaproponuje nowe filmy zgodne z moim gustem. Ale gdybym np. dla odmiany chciała obejrzeć jakiś film akcji, to mogłabym sama znaleźć "Szybkich i wściekłych 9". Ten bardzo przyziemny przykład pokazuje, czym jest i czym, moim zdaniem, powinna być sztuczna inteligencja: technologią, która pomaga, ale jednocześnie nie pozbawia możliwości podejmowania własnych decyzji.

Oczywiście wybór filmu nie jest sytuacją, w której rozstrzyga się kwestia życia lub śmierci, ale AI może być używana w dużo poważniejszych przypadkach. Może pomóc lekarzowi, po przeanalizowaniu dziesiątków tysięcy podobnych schorzeń, w postawieniu właściwej diagnozy i dobraniu odpowiedniego leczenia.

PAP: Czy nie obawia się pani jednak, że pewnego dnia, chociażby z lenistwa, pozwolimy maszynom podejmować decyzje za nas i obudzimy się w świecie znanym z "Terminatora"?

M.V.: Zawsze jest ryzyko. Wynika ono z tego, że jesteśmy ludźmi. Mówiąc inaczej, ryzyko wynika z wyborów, których dokonujemy, jako ludzie, by używać technologii w taki czy inny sposób. I to do nas należy odpowiedzialność, żebyśmy nie skończyli w świecie "Terminatora" czy "Łowcy Androidów". Jedną z głównych rzeczy, którymi się zajmuję jest zapewnienie, by technologia służyła nam jako ludziom, a nie na odwrót. Tak, byśmy to my zawsze wydawali polecenia i wiedzieli, co chcemy zrobić z technologią. Tylko wtedy możemy być pewni, że to co robimy, tak naprawdę nam służy.

Technologie cyfrowe towarzysza nam już od jakiegoś czasu, ale dopiero teraz jako społeczeństwa zaczynamy je regulować. To bardzo ważne, żebyśmy mieli to poczucie własności. Tylko wtedy, kiedy jesteś właścicielem jakiejś rzeczy możesz ją tak rozwijać, żeby ci dobrze służyła.

PAP: Jak zabezpieczyć się przed "buntem maszyn"?

M.V.: Przede wszystkim nie wyobrażać sobie zagrożenia, jako Terminatora - robota w kształcie człowieka. Tak naprawdę sytuacja może budzić jeszcze większą grozę, ponieważ bardzo często mamy do czynienia z technologią, która jest niewidzialna.

Jeśli ubiega się pan o przyjęcie na uniwersytet, to w procesie rekrutacji może zostać wykorzystana technologia, która przegląda wszystkie zgłoszenia, żeby pomóc ludziom, podejmującym ostateczną decyzję. Technologia jest używana do oceny i ma to bardzo realny wpływ na konkretne ludzkie życie. Dlatego dążymy do ustanowienia bardzo jasnych zasad używania AI w takich sytuacjach. Konkretnie chodzi o zapewnienie, że nie będzie ona dyskryminowała ze względu na pochodzenie, płeć, czy światopogląd; że pomoże dokonać oceny, ale w sposób neutralny i biorąc pod uwagę tylko merytoryczne kwalifikacje. To samo dotyczy używania sztucznej inteligencji przez banki, czy wymiar sprawiedliwości.

Jest też pewna pula sytuacji, gdzie używanie AI powinno być zabroniona. Mówiąc najogólniej, dotyczy to społecznej oceny obywateli.

PAP: Czyli?

M.V.: Powiedzmy, że mamy monitoring wideo w mieście i ktoś przechodzi przez ulicę na czerwonym świetle. Technologia rozpoznawania twarzy identyfikuje tę osobę, by następnie zapisać pięć punktów karnych na jej koncie. Ta sama osoba późni się z opłaceniem czynszu i dostaje kolejne 10 punktów karnych. Na tej podstawie system, lub władze decydują, czy taki obywatel ma dostęp do pewnych możliwości. Mówimy zdecydowanie, że coś takiego powinno być zabronione w Europie.

PAP: Do czego jeszcze, pani zdaniem, nie powinno się używać AI?

M.V.: Zabroniona powinna być też technologia, która działa podprogowo, bez naszej wiedzy i manipuluje nami w sposób, który jest dla nas szkodliwy. Co do zasady, zabronione jest tez używanie technologii do identyfikacji twarzy, poza wyjątkami dotyczącymi bardzo poważnych przestępstw, takich jak np. porwanie dziecka, czy poszukiwanie terrorysty.

PAP: Co jakiś czas pojawiają się informacje o tym, że prototypy samochodów autonomicznych używających sztucznej inteligencji spowodowały śmiertelne wypadki. Czy, biorąc pod uwagę zwykłe fizyczne bezpieczeństwo, zalety tej technologii przeważają nad wadami?

M.V.: Proszę zwrócić uwagę, że mamy dużo większe wymagania wobec maszyn, niż wobec ludzi. Codziennie na ulicach ginie dużo ludzi w wypadkach drogowych. Gdybyśmy mieli tę samą tolerancję wobec maszyn, jaką mamy wobec ludzi, to już byśmy mieli znacznie więcej maszyn wokół nas. Ale nie akceptujemy tego. Jesteśmy dużo bardziej tolerancyjni i gotowi do wybaczenia ludziom, niż maszynom. Oznacza to, że zanim będziemy mieć automatyczne samochody na ulicach, to czeka nas bardzo wiele etapów pośrednich, zanim technologia osiągnie standardy bezpieczeństwa, których oczekujemy.

Z drugiej strony, często nie zdajemy sobie sprawy, w jakiej skali już teraz jesteśmy otoczeni przez technologię. Pozostając przy samochodach: sama prowadzę auto, uważam się za dobrego kierowcę, ale zdaję sobie sprawę, że technologia jest szybsza ode mnie. Cieszę się, że istnieje technologia kontroli trakcji czy automatycznego hamowania.

PAP: Załóżmy, że w wyniku decyzji maszyny o hamowaniu doszło jednak do wypadku. Kto wówczas ponosi odpowiedzialność?

M.V.: To jest tak jak z każdym innym produktem. Już teraz mamy regulacje, które jasno określają odpowiedzialność producenta i użytkownika urządzenia. Dodanie do niego sztucznej inteligencji właściwie nic nie zmienia. Jeśli z kolei chodzi o rzeczywistość wirtualną np. o platformy handlowe, to dążymy do wprowadzenia zasady, że te regulacje, które obowiązują off-line, obowiązują też online.

Wracając jednak jeszcze do wszechhobecności technologii w naszym życiu chciałabym podać przykład z innej - nieoczywistej - branży: rolnictwa. Otóż, istnieją algorytmy, które potrafią ocenić jakość gleby, sprawdzić prognozę pogody i udzielić informacji, jak zminimalizować użycie pestycydów i nawozów, ale wciąż uzyskać dobre zbiory.

PAP: Jest to jeden z argumentów używanych przeciwko AI: pozbawi ona ludzi pracy.

M.V.: Myślę, że w przyszłości będziemy mieć tyle pracy dla ludzi ile mamy teraz, tylko będzie to inny rodzaj pracy, wymagający większych kompetencji w sferze technologii. Dlatego zachęcamy obywateli UE do rozwijania swoich umiejętności właśnie w tym kierunku.

PAP: Społeczeństwo informatyków. To trochę smutna wizja.

M.V.: Myślę, że to nam nie grozi. Z prostego powodu, że jako ludzie doceniamy rzeczy, które są robione przez innych ludzi. Realnie, a nie wirtualnie. Ja np. uwielbiam rękodzieło, którym kobiety zajmowały się przez całe stulecia. Potrafię wpaść w zachwyt nad haftem, koronkami. To jest niesamowite i przemawia do mnie. Sama nie jestem w tym szczególnie dobra, ale umiem robić na drutach. W związku z tym, przewiduję wręcz odrodzenie pewnych tradycyjnych zawodów i umiejętności. Jako ludzie doceniamy piękne przedmioty wykonane przez innych ludzi. Rzemiosło. Nie chcemy zostać zredukowani do istot obsługiwanych przez maszyny, lecz mamy w sobie potrzebę samodzielnego tworzenia.

Znakomitym dowodem na to jest fakt, że podczas kryzysu covidowego sklepy oferujące artykuły do majsterkowania, hobby itd. zanotowały bardzo poważny wzrost obrotów. Właśnie dlatego, że ludzie nie chcę tylko siedzieć i oglądać seriali.

image

 

PAP - mini

CyberDefence24
CyberDefence24
KomentarzeLiczba komentarzy: 0
No results found.
Tweets CyberDefence24