Social media

AI na wojnie z fałszywkami. W jaki sposób Facebook moderuje swoją platformę?

fot. Creative Christians/ Unsplash/ Domena publiczna

Nie jest łatwo być największą platformą społecznościową na świecie. Niemal 3 miliardy aktywnych użytkowników produkuje każdego dnia ilość informacji, których przeciętny człowiek nie zdążyłby przyswoić przez całe swoje życie. Na platformie Marka Zuckerberga pojawiają się fałszywe konta, manipulujące treści, a nawet materiały wideo typu deepfake. W jaki sposób w wyłapaniu fałszywek pomaga sztuczna inteligencja?

Dane nie pozostawiają złudzeń. W 2019 roku Facebook skrupulatnie usuwał średnio 2 miliardy fałszywych kont w każdym kwartale. Ponad 600 milionów “fałszywek” miesięcznie. Jeśli dodać do tego fakt, że spora liczba z tych kont była zaangażowana w rozsyłanie spamu, linków do fałszywego oprogramowania oraz w akcje phishingowe - skala może robić wrażenie.

Przez długi czas Facebook skrzętnie skrywał sposoby, które wykorzystuje wewnętrznie do radzenia sobie z opisywanymi problemami. W końcu platforma postanowiła jasno przyznać się do korzystania ze specjalnie zaprojektowanych algorytmów sztucznej inteligencji oraz całego systemu uczenia maszynowego, który łapie w siatkę potencjalne “fałszywki”. I robi to naprawdę z niezłą skutecznością.

Czytaj też

Facebook stawia na sztuczną inteligencję

Facebook, tworząc swój model uczenia maszynowego postanowił podejść do sprawy w kompleksowy sposób. Firma wewnętrznie rozróżnia dwa rodzaje fałszywych kont. Pierwsze z nich, to takie, które zostały błędnie sklasyfikowane przez użytkownika, a ich istnienie wynika ze zwykłego, ludzkiego błędu.

W przypadku drugich, sprawa ma się już nieco inaczej. To konta oraz strony, które naruszają regulamin firmy - wyłudzają informacje lub spamują innych użytkowników. Ten rodzaj kont trzeba usuwać maksymalnie szybko po ich wykryciu - aby nie zdążyły rozprzestrzenić potencjalnie groźnych informacji. Do usuwania tego typu profili Facebook korzysta z ręcznie zakodowanych reguł, finalnie doprawiając je modelem Deep Entity Classification (DEC).

DEC od Facebooka uczy się na bieżąco rozróżniać fałszywe i prawdziwe konta na podstawie ich wzorców połączeń w sieci. Facebook bierze tu pod uwagę m.in średni wiek użytkownika, rozkład płci znajomych i bagatela… 20 tys. innych parametrów.

DEC jest stale ulepszany, a algorytmom pomagają prawdziwi moderatorzy z całego świata - wprowadzając do niego na przykład precyzyjne dane, dotyczące norm kulturowych z danego regionu naszej planety. Amerykanie przekazali, że od momentu rozpoczęcia działania Deep Entity Classification, liczba fałszywych kont na platformie nie przekracza 5 proc. Pamiętając, że z Facebooka korzystają prawie 3 miliardy osób - 5 proc. to statystyka, którą można się chwalić.

Czytaj też

Algorytmy biorą na cel wideo typu deepfake

Sztuczna inteligencja Facebooka radzi sobie sprawnie z treściami pisanymi oraz obrazami. Ale to przecież nie wszystkie możliwości, które są wykorzystywane przez cyberprzestępców i oszustów na platformie Marka Zuckerberga.

W 2021 roku Facebook nawiązał współpracę z naukowcami z Michigan State University w celu opracowania metody wykrywania fałszywych materiałów wideo typu deepfake. Naukowcy i inżynierowie postawili na sposób wręcz banalny w swej prostocie: Facebook stosuje odwrotną inżynierię i analizuje technologię, która została pierwotnie wykorzystana do utworzenia “fałszywki”. Do pomocy w rozwoju swoich algorytmów Facebook zachęcił także niezależnych użytkowników. W 2021 roku zwycięzcy konkursu Facebook Deepfake Detection Challenge stworzyli system, który był w stanie zidentyfikować zmanipulowane wideo z dokładnością do 82 proc.

Czytaj też

O ile inżynieria wsteczna nie jest nową koncepcją w kontekście uczenia maszynowego, platforma Marka Zuckerberga twierdzi, że szybko ewoluujące, zmanipulowane treści wymagają pójścia o krok dalej.

Takim działaniem ma być m.in wykorzystanie systemu pozwalającego na odczytanie indywidualnego “odcisku palca” każdego z filmów wideo, znalezionego na Facebooku. Naukowcy z MSU współpracujący z Facebookiem twierdzą, że ich rozwiązanie jest w stanie oszacować zarówno architekturę algorytmu użytego do stworzenia deepfake’a, jak i uzyskać mierzalne dane, pozwalające na wytropienie oryginalnego modelu, użytego do stworzenia fałszywego materiału. Specjalny model został uprzednio wytrenowany na zbiorze danych, składającym się z 100 tys. syntetycznych obrazów, wygenerowanych przez 100 publicznie dostępnych modeli uczenia maszynowego.

Badacze z Michigan State University chwalą się, że ich metoda okazuje się być bardziej konkurencyjna, względem najnowocześniejszych technologii zdolnych wykrywać deepfake. Co ciekawe, naukowcy z MSU potwierdzili również skuteczność swojego modelu w przypadku wykrywania skoordynowanych ataków dezinformacyjnych na wielu platformach jednocześnie.

To jednak nie wszystko. Na swoim blogu Facebook wspomina również o wykorzystaniu innego modelu - SimSearchNet++. To algorytmy, które na co dzień są odpowiedzialne za kompleksowe indeksowanie obrazów na Facebooku i Instagramie. Są one odporne na wiele różnych manipulacji - od wycinania przez rozmycie, aż po podrobione zrzuty ekranu.

Uczenie maszynowe staje się standardem moderacji

Oprócz Facebooka, z uczenia maszynowego oraz algorytmów sztucznej inteligencji w przypadku moderacji korzysta też YouTube. Algorytmy serwisu streamingowego są wciąż udoskonalane, aby możliwie najlepiej radzić sobie z fałszywymi treściami. W 2021 roku liczba godzin materiałów wideo przesyłanych do YouTube’a wyniosła 18 milionów. Człowiek, który chciałby ręcznie moderować taką ilość treści musiałby radzić sobie z 500 godzinami filmów na minutę. To oczywiście nierealne.

Wykorzystanie uczenia maszynowego oraz specjalnie projektowanych modeli zarządzających coraz większą ilością treści na platformach staje się swoistym standardem. Ludzki czynnik w opisywanym procesie cały czas istnieje, ale z roku na rok jego udział zaczyna się znacząco zmniejszać (obecnie około 50 proc. materiałów jest usuwanych z platformy przez algorytmy).

Czytaj też

Przyszłość i nowe wyzwania

W ciągu najbliższych lat Facebook (a od niedawna Meta) stanie przed jeszcze większym wyzwaniem niż do tej pory. Mark Zuckerberg wraz ze swoim zespołem rozpoczął gigantyczne inwestycje, które mają powołać do życia metaverse - nową generację internetu, opierającą się o doświadczenia użytkownika w wirtualnej rzeczywistości.

Nie trzeba nikogo przekonywać, jak bardzo sam VR oraz nowe, cyfrowe doświadczenia zwiększą ilość fałszywych kont, dezinformacji oraz niebezpiecznych treści pojawiających się na platformie. Nie wspominając już o zupełnie nowych "wytrychach" do przeprowadzania ataków na określone osoby czy całe organizacje. Moderacja i skuteczne ograniczanie wielu potencjalnie niebezpiecznych procederów w sieci, to rzeczy, które będą musiały się zmienić. Już teraz eksperci zwracają uwagę, że do tych sytuacji będą musieli zostać zaangażowani nie tylko inżynierowie z branży, ale również rządy i dedykowane organy regulacyjne.

W wewnętrznej notatce Facebooka do której dotarł serwis Financial Times, Andrew Bosworth, CTO Meta twierdził, iż metaverse będzie musiał posiadać “niemal disneyowski poziom bezpieczeństwa”. Patrząc na rozwój internetu, to odważne stwierdzenie Boswortha póki co można jedynie wsadzić między bajki.

Czytaj też

Autor: Aleksander Piskorz

Chcemy być także bliżej Państwa – czytelników. Dlatego, jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected] Przyszłość przynosi zmiany. Wprowadzamy je pod hasłem #CyberIsFuture.

Komentarze

    Czytaj także