Jak sztuczna inteligencja walczy z botami w mediach społecznościowych?

Duże platformy społecznościowe takie jak Twitter, YouTube czy Facebook coraz częściej korzystają z algorytmów sztucznej inteligencji, które na masową skalę wykrywają aktywność fałszywych kont w tych serwisach - donosi dziennik „Wall Street Journal”.
Narzędzia sztucznej inteligencji są powszechnie wykorzystywane przez firmy technologiczne do oczyszczania platform społecznościowych z fałszywych informacji, treści zawierających mowę nienawiści czy niezgodnych z prawem. Sztuczna inteligencja walczy również z botami, często działającymi w ramach zautomatyzowanych, zdalnie kontrolowanych sieci. Zadaniem botów najczęściej jest wywieranie wpływu na określone grupy społeczne - ocenia "WSJ".
Według przedstawicieli Facebooka w Polsce, "dzięki systemom opartym na uczeniu maszynowym większość fałszywych profili jest wykrywana już na etapie ich tworzenia", a znalezienie i usunięcie duplikatów treści naruszających zasady korzystania z serwisu odbywa się automatycznie.
Facebook deklaruje, że w niektórych krajach rozpoczął już współpracę z niezależnymi partnerami zajmującymi się weryfikacją prawdziwości zamieszczanych w serwisie informacji. "Gdy partnerzy uznają daną informację za nieprawdziwą, jej pozycja w aktualnościach słabnie, co ogranicza jej widoczność średnio o 80 proc." - twierdzą przedstawiciele koncernu.
"Na początku 2018 roku mieliśmy 10 partnerów w czterech krajach, obecnie jest ich 27 w 17 krajach i spodziewamy się, że w najbliższych miesiącach dołączą kolejni" - dowiedziała się PAP podczas rozmów z pracownikami Facebooka w warszawskim biurze firmy.
Moderacja treści na platformach społecznościowych budzi jednak spore kontrowersje.
"WSJ" przypomina, że w ostatnich dwóch tygodniach Facebook usunął z serwisu fałszywe konta zamieszczające treści o charakterze prawicowym, które - jak się okazało - powiązane były z działalnością rosyjskich agentów wpływu. Twitter zaś został oskarżony przez prezydenta USA Donalda Trumpa o celowe zaniżanie widoczności wpisów polityków republikańskich o konserwatywnych poglądach.
Według "WSJ" podsumowaniem tych działań była decyzja Apple, YouTube, Pinterestu i Facebooka - firmy te postanowiły niedawno o usunięciu treści zamieszczanych przez publicystę Alexa Jonesa, będącego właścicielem kontrowersyjnej platformy medialnej Infowars. W związku z blokadą Jonesa i jego treści, wielokrotnie oznaczanych przez zautomatyzowane algorytmy jako niewłaściwe, właściciele sieci społecznościowych spotkali się z oskarżeniami o ograniczanie wolności wypowiedzi w swoich serwisach.
"WSJ" podkreśla, że użycie narzędzi sztucznej inteligencji do moderacji treści powinno wiązać się obecnie z wzmożoną dyskusją na temat wartości istotnych w społeczeństwie, które - w przypadku technologii - często muszą być przetłumaczone na działający automatycznie i poza bezpośrednią kontrolą człowieka kod.
Giganci świata technologii tłumaczą, że obecnie sztuczna inteligencja nie podejmuje decyzji samodzielnie, a jedynie oznacza budzące wątpliwości treści po to, by pochylili się nad nimi zatrudnieni w firmie moderatorzy. Facebook z wykorzystaniem algorytmów monitoruje szeroki wachlarz treści, od mowy nienawiści do materiałów wskazujących na chęć popełnienia samobójstwa przez użytkownika - przypomina dziennik. Twitter z kolei dzięki sztucznej inteligencji wyłapuje osoby łamiące reguły korzystania z usługi. YouTube zaś wykorzystuje algorytmy do eliminowania z serwisu treści potencjalnie związanych z terroryzmem.
"WSJ" zauważa, że nigdy w historii ludzkie życie nie zależało tak bardzo od systemów technologicznych, jak to ma miejsce obecnie. Jak podkreśla gazeta, algorytmy, w oparciu o które działa dziś internet, tworzone są jedynie przez kilka dużych firm - a zakres decyzji podejmowanych przez sztuczną inteligencję jest coraz szerszy. Zdaniem dziennika, nie powinien on poszerzać się dalej bez wpływu osób, których zautomatyzowane decyzje dotyczą.
Operacje Wojska Polskiego. Żołnierze do zadań dużej wagi
Materiał sponsorowany