Reklama

Social media

Jak sztuczna inteligencja walczy z botami w mediach społecznościowych?

FOT. GERALT/PIXABAY
FOT. GERALT/PIXABAY

Duże platformy społecznościowe takie jak Twitter, YouTube czy Facebook coraz częściej korzystają z algorytmów sztucznej inteligencji, które na masową skalę wykrywają aktywność fałszywych kont w tych serwisach - donosi dziennik „Wall Street Journal”.

Narzędzia sztucznej inteligencji są powszechnie wykorzystywane przez firmy technologiczne do oczyszczania platform społecznościowych z fałszywych informacji, treści zawierających mowę nienawiści czy niezgodnych z prawem. Sztuczna inteligencja walczy również z botami, często działającymi w ramach zautomatyzowanych, zdalnie kontrolowanych sieci. Zadaniem botów najczęściej jest wywieranie wpływu na określone grupy społeczne - ocenia "WSJ".

Według przedstawicieli Facebooka w Polsce, "dzięki systemom opartym na uczeniu maszynowym większość fałszywych profili jest wykrywana już na etapie ich tworzenia", a znalezienie i usunięcie duplikatów treści naruszających zasady korzystania z serwisu odbywa się automatycznie.

Facebook deklaruje, że w niektórych krajach rozpoczął już współpracę z niezależnymi partnerami zajmującymi się weryfikacją prawdziwości zamieszczanych w serwisie informacji. "Gdy partnerzy uznają daną informację za nieprawdziwą, jej pozycja w aktualnościach słabnie, co ogranicza jej widoczność średnio o 80 proc." - twierdzą przedstawiciele koncernu.

"Na początku 2018 roku mieliśmy 10 partnerów w czterech krajach, obecnie jest ich 27 w 17 krajach i spodziewamy się, że w najbliższych miesiącach dołączą kolejni" - dowiedziała się PAP podczas rozmów z pracownikami Facebooka w warszawskim biurze firmy.

Moderacja treści na platformach społecznościowych budzi jednak spore kontrowersje.

"WSJ" przypomina, że w ostatnich dwóch tygodniach Facebook usunął z serwisu fałszywe konta zamieszczające treści o charakterze prawicowym, które - jak się okazało - powiązane były z działalnością rosyjskich agentów wpływu. Twitter zaś został oskarżony przez prezydenta USA Donalda Trumpa o celowe zaniżanie widoczności wpisów polityków republikańskich o konserwatywnych poglądach.

Według "WSJ" podsumowaniem tych działań była decyzja Apple, YouTube, Pinterestu i Facebooka - firmy te postanowiły niedawno o usunięciu treści zamieszczanych przez publicystę Alexa Jonesa, będącego właścicielem kontrowersyjnej platformy medialnej Infowars. W związku z blokadą Jonesa i jego treści, wielokrotnie oznaczanych przez zautomatyzowane algorytmy jako niewłaściwe, właściciele sieci społecznościowych spotkali się z oskarżeniami o ograniczanie wolności wypowiedzi w swoich serwisach.

"WSJ" podkreśla, że użycie narzędzi sztucznej inteligencji do moderacji treści powinno wiązać się obecnie z wzmożoną dyskusją na temat wartości istotnych w społeczeństwie, które - w przypadku technologii - często muszą być przetłumaczone na działający automatycznie i poza bezpośrednią kontrolą człowieka kod.

Giganci świata technologii tłumaczą, że obecnie sztuczna inteligencja nie podejmuje decyzji samodzielnie, a jedynie oznacza budzące wątpliwości treści po to, by pochylili się nad nimi zatrudnieni w firmie moderatorzy. Facebook z wykorzystaniem algorytmów monitoruje szeroki wachlarz treści, od mowy nienawiści do materiałów wskazujących na chęć popełnienia samobójstwa przez użytkownika - przypomina dziennik. Twitter z kolei dzięki sztucznej inteligencji wyłapuje osoby łamiące reguły korzystania z usługi. YouTube zaś wykorzystuje algorytmy do eliminowania z serwisu treści potencjalnie związanych z terroryzmem.

"WSJ" zauważa, że nigdy w historii ludzkie życie nie zależało tak bardzo od systemów technologicznych, jak to ma miejsce obecnie. Jak podkreśla gazeta, algorytmy, w oparciu o które działa dziś internet, tworzone są jedynie przez kilka dużych firm - a zakres decyzji podejmowanych przez sztuczną inteligencję jest coraz szerszy. Zdaniem dziennika, nie powinien on poszerzać się dalej bez wpływu osób, których zautomatyzowane decyzje dotyczą. 

Źródło:PAP
Reklama
Reklama

Komentarze