Reklama

Polityka i prawo

Sztuczna inteligencja bronią i lekarstwem w walce z fake newsami? [Wywiad]

fot. geralt / pixabay
fot. geralt / pixabay

Sztuczna inteligencja przenosi fake news i coraz popularniejszy deepfake na coraz wyższy poziom. Jednak czy ta sama technologia, która może przenieść dezinformację w nowy wymiar może być również „lekarstwem” na te zagrożenia? Wygląda na to że tak! O tym jak wykorzystać sztuczną inteligencję do walki z hejtem i fake newsami, jakie działania powinna podjąć Polska, aby zbudować potencjał w dziedzinie AI a także roli społeczeństwa obywatelskiego w walce z dezinformacją i cybezagrożeniami mówi Aleksandra Przegalińska z Akademii Leona Koźmińskiego, specjalistka ds. sztucznej inteligencji. 

Sztuczna Inteligencja pojawiła się jako „autorka” zdolna do pisania fake newsów. Foreign Affairs przeprowadziło badanie z wykorzystaniem programu, który po wpisaniu „leadu” artykułu dopisał samodzielnie dalszą część artykułu. Badanie pokazało, że duża część respondentów wskazała przygotowany przez AI tekst za autentyczny. Wygląda na to, że AI przenosi prowadzenie dezinformacji i „produkcji” fake news na nowy poziom. Mamy jakiekolwiek sposoby, aby się przed tym obronić?

Zacznijmy od tego, że to jest bardzo kompleksowe zagadnienie. Przetwarzanie tekstu czy języka naturalnego to rzeczywiście specyficzna dziedzina. I jako taka od pewnego czasu rozwija się bardzo dynamicznie, dzięki rozwojowi wielowarstwowych sieci neuronowych i tego, że możemy ją „karmić” bardzo dużymi ilościami danych. Przykładem takiego generatora tekstu, który mógł „produkować” fake teksty, ale się nim nie stał jest GPT-2. To narzędzie, którym kilka miesięcy temu firma OpenAI pochwaliła się, a następnie je schowała. I tutaj zmierzamy ku pierwszemu bardzo ciekawemu przykładowi, jak można walczyć z fake newsami - poprzez samoograniczenie. Otóż firma OpenAI stwierdziła, że generator tekstu pracuje znakomicie i rzeczywiście jest w stanie pisać, a mówiąc wprost, wymyślać rozmaite teksty, które będą wyglądały na wiarygodne. Doszli do wniosku, że jest to narzędzie na tyle niebezpieczne, że nie powinno zostać przeznaczone do komercyjnego użytku i pozostać jedynie do wąskiego zastosowania akademickiego. Był to gest, pokazany przez samą firmę, która zajmuje się sztuczną inteligencją, że jest ona na tyle odpowiedzialna, że kierując się pewnymi wartościami, chce ograniczyć dostęp do tego narzędzia. Jest to ciekawy przykład samoograniczenia i myślę, że często będziemy mogli na takie gesty liczyć. 

Oczywiście możemy również stworzyć rozmaite algorytmy do detekcji fake’ów – coś na wzór antywirusów. Już teraz istnieją takie algorytmy, które są w stanie dokonać detekcji i sprawdzić pliki, np. materiały wizualne. Mówimy tutaj o dość popularnej formie deepfake’ów np. spotykanych w Internecie jako nagrania wideo ze znanymi politykami, które już teraz wiemy, że są fałszywe. Takie właśnie deepfake’owe materiały algorytmy już są w stanie rozpoznać i co więcej są one już całkiem niezłe.

Nawet nie dalej jak w zeszłym roku MIT (MIT Computer Science & Artificial Intelligence Lab – przyp. red.) opowiedziało się, aby przestać histeryzować na punkcie wizualnych deepfake, bo w gruncie rzeczy ponowne przetworzenie danego obrazka i stwierdzenie, że jest fałszywy nie jest wcale takie trudne. Oczywiście pojawiają się przeróżne narzędzia, ale możemy do tego celu zastosować sieci neuronowe, które również mogą posłużyć nam do tego, aby odkrywać deepfake.  Nie zawsze są one skuteczne, jednak zawsze na końcu drogi takiego deepfake jest człowiek, który stale jest eksponowany na różne treści fałszywe, dezinformujące. Ważne, czy będzie miał w sobie intuicję, aby sprawdzić jego wiarygodność.  Jest to kwestia edukacji. To, że narzędzia istnieją nie oznacza także, że będą wykorzystywane. Bardzo istotną tutaj rzeczą jest to, aby podjąć jakieś działania, które będą skłaniać ludzi do tego, aby oni mieli prawidłowe nawyki.  Przeróżne firmy, jak Facebook czy Microsoft, przygotowują różnorodne programy czy konkursy, właśnie w temacie narzędzi do detekcji deepfake. Takie działania są coraz popularniejsze, a wyżej wymienionym firmom zależy, aby rozprzestrzeniać informację na ten temat i znajdować na rynku talenty, które będą w stanie produkować coraz to lepsze narzędzia, wykorzystując do tego sztuczną inteligencję. Takie narzędzia już istnieją, brakuje nam tylko myślenia o nich jako o naturalnych instrumentach, które powinniśmy wykorzystywać, kiedy używamy mediów społecznościowych.  

Wygląda na to, że najlepszym środkiem ochrony przed dezinformacją jest edukacja obywateli, aby dokładnie sprawdzali źródła, z których pozyskują wiedzę. Wiemy natomiast, że jak dotychczas kwestia ta nie wygląda nazbyt dobrze – wierzymy w to, co czytamy w mediach społecznościowych i przekazujemy fałszywe treści dalej. Fałszywe portale często layoutem przypominają dobrze znane portale informacyjne, a przy wykorzystaniu deepfake jeszcze łatwiej oszukać odbiorcę. 

Nie tylko portale internetowe, ale również portale płatnicze. Istnieją różne strony, które udają, że są np. Netflixem. Jest ich obecnie całkiem sporo. To dość niebezpieczne. Ale tak jak mówiłam mamy narzędzia, aby je wykryć. Żeby podrobić chociażby wspomnianego Netflixa trzeba włożyć bardzo dużo pracy, aby taka strona przypominała tą autentyczną. I nawet jeśli gołym okiem użytkownik nie może ocenić, że coś jest nie tak, czy są jakieś dziwne treści czy coś jest fałszywe czy prawdziwe, to właśnie tutaj z pomocą mogą nam przyjść te wszystkie narzędzia. Wydaje mi się, że jako użytkownicy powinniśmy wymagać od portali społecznościowych, aby je implementowały.  

Czyli jako użytkownicy mediów społecznościowych możemy dysponować już narzędziami, które na ten moment jednak nie są wdrożone?

Część już jest, ale jeszcze nie mają takiej dużej rozpoznawalności.

Jednak czy te narzędzia mogą być wykorzystywane samodzielnie przez użytkownika końcowego?

Częściowo tak. Są takie narzędzia, które są akademickie i związku z tym, że są akademickie zostały skierowane do obiegu publicznego. Czyli dostępne są bez żadnych opłat. Problemem jest fakt, że są one wciąż na etapie projektu badawczego. Ja na przykład mam taki zwyczaj, że jak widzę jakiś wzmożony ruch na Twitterze i ktoś umieszcza mi bardzo dużo komentarzy, to sobie wrzucam takie osoby w narzędzie do detekcji botów i sprawdzam czy to, co zostało tam napisane jest tekstem napisanym przez człowieka, czyli zweryfikowanego użytkownika, czy została wygenerowana automatycznie i prawdopodobnie jest to bot. Mam już w sobie taki instynkt. Takie narzędzie jest jak najbardziej dostępne dla końcowego użytkownika.

Czy jednak mała popularność tych narzędzi oraz to, że wciąż media społecznościowe ich nie wdrażają, może oznaczać koniec wiarygodności mediów społecznościowych i portali internetowych?  

No właśnie nie musi, tylko te portale muszą się do tego bardzo przyłożyć. Weźmy „na widelec” takiego Facebooka jako przykład. Wyraźnie widać, że jest to portal, który swoją wiarygodność użytkowników już mocno nadszarpnął na rozmaite sposoby. Z drugiej strony jest to narzędzie na tyle użyteczne dla ludzi, że oni jeszcze od niego nie odeszli …

Bo nie mają alternatywy… 

No właśnie, nie bardzo mają alternatywę. A nawet jeśli mają, to nie jest ona tak potężna, tak rozbudowana i nie daje takiej gratyfikacji. Spójrzmy na to z innej strony. Jeśli taka firma jak Facebook, która ma rozmaite problemy z wiarygodnością, to właśnie ona powinna skłaniać się ku temu, aby alokować środki na to, aby tego typu narzędzia upowszechniać. 

Nie ma lepszej metody, aby upowszechniać te narzędzia niż właśnie media społecznościowe. To one ostatecznie eksponują użytkownika na rozmaite treści, dlatego właśnie powinny, nawet bardziej niż media tradycyjne, takie jak The New York Times czy Gazeta Wyborcza, rozpowszechniać wiedzę na ten temat. Co więcej, powinno być to częścią ich wartości, nawet wizji czy misji. 

Sztuczna inteligencja wykorzystywana jest również w sferze publicznej – brytyjska policja wykorzystuje ją np. do wykrywania hejtu w mediach społecznościowych. Prowadzone były również prace nad wykorzystaniem AI w systemach rozpoznawania twarzy.  Jak AI może jeszcze wspomóc władzom oraz służbom publicznym w walce z przestępczością, nie tylko tą w cyberrzestrzeni?

Tutaj jest kilka różnych rzeczy - z jednej strony mówimy o hejcie, a z drugiej o cyberprzestępczości. Są to dwie różne rzeczy. Hejt nie jest przestępstwem typu twardego, jest jakąś formą wykroczenia. Nie uważam też, że to państwo i władza powinno być wspierane narzędziami, aby w jakiś sposób tych obywateli nadzorować, ale uważam, że społeczności czy tzw. społeczeństwo obywatelskie, powinno nadzorować się samo.  Użytkownicy powinni dostawać użyteczne narzędzie do tego, aby raportować tego typu negatywne treści i się nawzajem pilnować. Oczywiście w przypadku ciężkich przewinień, kiedy na przykład mówimy o człowieku, który szuka pedofilskich treści w sieci lub je promuje, mówimy o przestępstwie i władza powinna natychmiast wykorzystać narzędzie do tego, aby takiego człowieka znaleźć oraz wyciągnąć konsekwencje z jego działania.

Jednak ja bym jednak postawiła na generalną filozofię upowszechniania narzędzi do samokontroli. Największą karą dla hejtera nie jest to, że może lub zostanie ukarany, ale to, że jego treści nie będą widoczne, a ludzie przestaną reagować na te treści.  Jeśli mówimy o hejcie to mamy na myśli obelżywe zachowanie względem innych użytkowników, wyzywanie czy naruszanie ich godności. Wydaje mi się, że w przypadku zwykłego hejterstwa najpotężniejszym narzędziem, jakie może nas ochronić przed działaniem tego typu użytkowników jest sieć neuronowa. Jest ona zdolna do tego, aby wykrywać tego typu treści.  Oczywiście na początku sieć musiałaby się uczyć i musiałaby być na tym etapie weryfikowana przez ludzi. Czy to, co wykryje, aby na pewno jest hejtem i zapewne czasami ta granica byłaby ciężka to określenia. Rozpoznawanie sentymentu czy rozpoznawanie języka jak najbardziej w tym momencie już działa. Mamy już algorytmy, które mogą to bardzo skutecznie robić. Komentarze hejterskie na ten moment często nie są usuwane i to właśnie to pozwala sądzić tym ludziom, że mogą tworzyć tego typu treści dalej.  Po prostu hejter zostaje nakarmiony w swoich potrzebach - potrzebie bycia widocznym. Algorytmy sztucznej inteligencji mogą wykrywać takie komentarze i na przykład automatycznie usuwać.  

Tylko, że algorytmy wciąż nie wykrywają np. sarkazmu.

Obelżywe słowa są dość łatwe do wychwycenia i nawet triki, które ludzie stosują, żeby je napisać nieco inaczej są w gruncie rzeczy bardzo banalne i proste dla sieci neuronowych.  Jak najbardziej można je wytrenować do tego, aby AI je wykrywała. A co do sarkazmu - poczekajmy, najbliższe lata mogą dokonać jakiegoś przełomu. Oczywiście sarkazm i ironia są gdzieś do pewnego stopnia trudne.  Wciąż pomiędzy sarkazmem, a hejtem jest bardzo duża różnica. 

Czy jesteśmy w stanie określić jasną granicę pomiędzy hejtem a przestępstwem?

Niestety nie jestem prawnikiem i nie jestem w stanie odpowiedzieć na to w jasny sposób.  Moim zdaniem hejt bardzo często ma charakter umowny, natomiast przestępstwo jest bardzo jasno sprecyzowane w kodeksie. Hejt wymyka się jasnym ramom prawnym. Na pewno należy odróżnić go od krytycznego komentarza do czyjegoś zachowania. Tam, gdzie jest miejsce na debatę, jest również miejsce na krytykę. Hejt jest wulgarny, ma charakter wysoko prowokacyjny.

W tym momencie nie ma prawdziwej debaty w sieci, a wręcz przeciwnie, można powiedzieć, że ludzie wylewają na siebie „wiadro pomyj”. Dlatego też, aby w jakiś sposób ucywilizować tą dyskusję sztuczna inteligencja mogłaby nam w tym pomóc. Na przykład, żeby czasami usuwać pewnego rodzaju treści, które są wulgarne. Później oczywiście można przeanalizować, czy zostało to właściwie usunięte czy nie, ale jeśli ktoś chce na poważnie walczyć z hejtem, trzeba będzie przejść przez taki etap, gdzie część komentarzy po prostu będzie niesprawiedliwie usunięta. Jednak będzie to taka forma uczenia się. Widząc jak sieci neuronowe funkcjonują niestety może być taki etap przy rozwijaniu tego typu narzędzi.

Ministerstwo Cyfryzacji jest w trakcie prac nad Polityką Rozwoju Sztucznej Inteligencji na lata 2019 -2027. Dokument jako cel główny traktuje wejście Polski do wąskiej grupy 20-25% krajów budujących AI. Czy w polskich warunkach tak krótka perspektywa czasowa jest realna?

Myślę, że jest to bardzo ambitne postawienie celu, ale oczywiście lepiej być ambitnym niż nic nie robić. Polska ma bardzo dobre kadry, które zajmują się IT, jednak relatywnie mało ludzi, którzy zajmują się sztuczną inteligencją, bo to są dwie różne rzeczy. Od IT do Data Science to mamy pierwszy duży skok, jednak potem od Data Science do Machine learning to jest kolejny jeszcze większy przeskok. W Polsce przez dekady nie był tworzony grunt pod tworzenie sztucznej inteligencji. Oczywiście dysponujemy bazą dobrych rzemieślników, którzy zajmują się programowaniem IT. Jest to oczywiście baza, na której możemy próbować rozpocząć budować system. Jednak podstawą przy tego typu pracy powinno być niemówienie, gdzie Polska chciałaby się znaleźć, tylko budowanie kadr w sposób oddolny. 

Czyli zaczynamy od edukacji?

Tak, dla mnie jest to najważniejsze, żeby w każdym tego typu dokumencie nacisk był kładziony na kadry. W pierwszej kolejności w ogóle zbudujmy ten ekosystem, dopiero wtedy mówmy o celach strategicznych. Dobrze, że ten dokument powstał, natomiast nie mówmy o celach dogonienia światowej czołówki, ja bym chciała, żeby w ogóle sztuczna inteligencja w Polsce powstała. 

Wg. raportu McKinsey Global Institute Polska jest jednym z najgorzej przygotowanych państw do wdrożenia sztucznej inteligencji spośród wszystkich państw UE.  Czy możliwe jest wskazanie najbardziej popularnych błędów popełnianych przez władze państwowe, jeśli chodzi o wdrożenia technologii opartej na sztucznej inteligencji, których Polska powinna uniknąć, aby przyspieszyć i zrównać się z pozostałymi państwami wspólnoty i móc ścigać najlepszych w wymiarze globalnym?

Samo stworzenie na przykład instytutu badawczego nie sprawi automatycznie, że Polacy będą po prostu innowacyjni. Podstawą jest edukacja i to bardzo wczesna. Na to należy położyć nacisk. To jest podstawa tego ekosystemu, który z czasem sam będzie rósł. Przy budowaniu tego ekosystemu, bardziej bym zaufała ludziom niż instytucjom, które mają nadzorować to jak ma powstawać sztuczna inteligencja. Oczywiście, powołanie ośrodka badawczego, który będzie dysponował dużym budżetem jest krokiem w dobrą stronę. Wydaje się, że takich ośrodków powinno być więcej. Powinniśmy mówić bardziej o decentralizacji tych ośrodków niż centralizacji. Wydaje mi się, że jest to lepsza strategia.  Na przykład, przypatrywałam się jak to wygląda w Stanach Zjednoczonych. Tam oczywiście też były strategie i plany, ale przede wszystkim był bardzo potężny ekosystem przedsiębiorców, naukowców i badaczy, przez których po prostu ta sztuczna inteligencja była tworzona. Jesteśmy jako kraj gdzieś tam w tyłach, jeśli chodzi o ranking innowacyjności i spadamy z roku na rok. Powinniśmy na ten moment skupić się na patentach, innowacjach pomysłach, ale tym się nie da zarządzać, na to się nie da napisać dokumentu, mówiąc w nim „ludzie bądźcie innowacyjni”.

Sztuczna inteligencja jest coraz powszechniej wykorzystywana. Wdraża ją biznes, a i administracja rządowa aspiruje do wdrożenia jej dla poprawy funkcjonowania różnych sfer funkcjonowania państwa, jak medycyna czy zbrojenia. Problemem wciąż nierozwiązanym jest kwestia aspektów prawnych za działania sztucznej inteligencji - kto w Pani opinii powinien ponosić odpowiedzialność za jej funkcjonowanie – twórca czy osoba ją „obsługująca”?

Zgodnie z porządkiem, który mamy w tym momencie jest to twórca. Najlepiej widać to na przykładzie autonomicznego samochodu, gdzie przemysł motoryzacyjny twierdzi, że skoro do tej pory to kierowca był odpowiedzialny za wszelkie wypadki, to może powinniśmy mieć auta częściowo oparte na sztucznej inteligencji. Wtedy to odpowiedzialność będzie na przykład dystrybuowana pomiędzy twórcę a użytkownika. Kwestią otwartą jest rozdystrybuowanie odpowiedzialności. Jest to zagadnienie, które na ten moment nie ma odpowiedzi. Dotychczas funkcjonował model, w którym to producent jest odpowiedzialny za wypadki stworzonych przez siebie systemów. W wypadku systemów uczących się, które mogą ulegać znacznym modyfikacjom, jeśli pozyskają na przykład całkowicie inne dane w zależności od sytuacji, jest już problemem dyskusyjnym. Mówimy o takiej formie odpowiedzialności, o której do tej pory nie praktykowaliśmy. Jak zaczęliśmy jeździć samochodem to nie od razu używaliśmy pasów. Po prostu czasami produkt musi się osadzić abyśmy zrozumieli, jak działa on w świecie. Po prostu pewnych rzeczy nie da się skodyfikować, zanim produkt nie zacznie działać. Staramy się w jakiś sposób już założyć pasy, jednak nie mamy jeszcze wozu. 

Reklama
Reklama

Komentarze