Social media
Facebook przypisuje użytkownikom wartości mające określać ich wiarygodność
Facebook przypisuje użytkownikom wartości mające określać ich wiarygodność w skali od 0 do 1 - podał dziennik „Washington Post”. System wartościowania użytkowników pod względem wiarygodności został według „WP” opracowany aby walczyć z dezinformacją w serwisie.
Informacje te potwierdza menedżer produktu Facebooka odpowiedzialna za walkę z dezinformacją Tessa Lyons.
"WP" przypomina, że do tej pory Facebook, podobnie jak inne firmy technologiczne, w ogromnej mierze polegał w walce z tym problemem na współpracy z użytkownikami serwisu. Ich zadaniem było m.in. oznaczanie treści budzących wątpliwości, ale - zdaniem gazety - po wprowadzeniu bardziej zaawansowanych opcji zgłaszania do moderacji, osoby korzystające z Facebooka zaczęły zgłaszać wpisy i artykuły, które nie zaliczały się do fałszywych informacji.
Według Lyons, "nierzadko ludzie zgłaszają do moderacji treści, które uważają za fałszywe czy nieprawdziwe tylko dlatego, że nie zgadzają się z nimi. Czasami też próbują w ten sposób zaszkodzić określonemu wydawcy" - tłumaczy. Przedstawicielka Facebooka zaznacza jednak, że wskaźnik wiarygodności w odniesieniu do zgłaszanych i udostępnianych na Facebooku treści nie będzie stanowił wyznacznika reputacji użytkowników.
Nie będzie też uniwersalnie i odgórnie przypisywany do korzystających z serwisu osób - podkreśla. Jej zdaniem, wskaźnik wiarygodności ma stanowić jeden z tysięcy nowych "wskazówek behawioralnych", które algorytmy Facebooka mają brać pod uwagę przy przeszukiwaniu serwisu celem identyfikacji potencjalnych ryzyk i zagrożeń. Już obecnie serwis monitoruje, którzy użytkownicy aktywnie zgłaszają do moderacji treści publikowane przez innych, a także którzy wydawcy zewnętrzni są uznawani przez społeczność za najbardziej wiarygodnych - donosi "WP".
Gazeta zwraca uwagę, że nie jest jasne, od czego jeszcze ma zależeć wartość wskaźnika wiarygodności dla poszczególnych użytkowników, a także czy wskaźnik będzie stosowany względem wszystkich korzystających z serwisu osób, a także do jakich dokładnie celów posłuży.
"Washington Post" ocenia, że wprowadzenie systemu wartościowania wiarygodności użytkowników Facebooka jest krokiem wynikającym ze zmieniającego się podejścia firm technologicznych do kwestii ryzyka. Zmiany te mają wynikać przede wszystkim z rozprzestrzeniającej się w internecie plagi fałszywych wiadomości i dezinformacji, a także z problemu rosyjskiej ingerencji w wybory w USA z 2016 roku, kiedy to powiązana z Kremlem organizacja propagandowa oddziaływała na opinię publiczną za pomocą m.in. Facebooka, Instagrama i Twittera.
Dyrektorka laboratorium badawczego First Draft Claire Wardle afiliowana przy amerykańskiej Harvard Kennedy School uważa jednak, że "niewiedza związana z tym, jak działa system wartościowania użytkowników przez Facebooka, może sprawić duży dyskomfort". Jak podkreśla jednak, "dowcip polega na tym, że Facebook nie może nam ujawnić tego, jak działa system oceny, bo wówczas algorytm stosowany w tym celu będzie mógł zostać z łatwością oszukany".
Tessa Lyons mówi, że "jednym z czynników na który zwracamy uwagę jest to, w jaki sposób użytkownicy serwisu wchodzą w interakcję z artykułami na Facebooku". Jak tłumaczy, "jeśli użytkownik zaalarmował nas wcześniej, że napotkał w serwisie fałszywy artykuł i zespół moderatorów istotnie potwierdził, że z takim materiałem mamy do czynienia, zgłoszeniom do moderacji płynącym od tej osoby możemy nadać nieco wyższą wagę niż tym, które pochodzą od osób celowo i masowo zgłaszających artykuły, z których część potem okazuje się prawdziwa".
Według "Washington Post", Lyons odmówiła podania większej liczby szczegółów na temat działania systemu wartościowania wiarygodności użytkowników powołując się na konieczność zabezpieczenia przed ich wykorzystaniem przez "zainteresowane podmioty".