Polityka i prawo
Zmiany algorytmu Facebooka z 2018 roku wywołały "społeczną wojnę domową" w Polsce
Zmiany algorytmu Facebooka z 2018 roku, których celem było umożliwienie głębszych relacji pomiędzy użytkownikami tego portalu społecznościowego, wywołały „społeczną wojnę domową” w Polsce - wynika z dokumentów ujawnionych przez sygnalistkę Frances Haugen.
Wewnętrzne badania koncernu, których celem było wyjaśnienie, w jaki sposób zmiany algorytmu wyświetlania użytkownikom treści na platformie wpływają na ich rozprzestrzenianie się, wykazały, że po wprowadzonych w 2018 roku zmianach osoby korzystające z Facebooka chętniej dzieliły się postami zawierającymi "dezinformację, toksyczne i brutalne treści".
Nowy algorytm sprawił, że tego rodzaju materiały na Facebooku zaczęły rozprzestrzeniać się znacznie szybciej, niż wcześniej - a sam portal w rezultacie stał się miejscem przepełnionym negatywnymi emocjami.
Niektórzy postanowili skrzętnie to wykorzystać.
Polska pod lupą badaczy Facebooka
W raporcie koncernu wskazano na szereg partii politycznych w Europie, w tym - jedną z Polski, które po zmianach algorytmu zmodyfikowały swój sposób komunikowania się z wyborcami i skierowały się w stronę polaryzujących, budzących silne emocje postów bazujących na negatywnych narracjach.
W przypadku Polski, efektem ubocznym decyzji o radykalizacji komunikacji na Facebooku, według badaczy pracujących dla koncernu był również zwrot partii w kierunku bardziej radykalnych decyzji politycznych.
"Zespół jednej z partii politycznych Polski ocenia, że zmodyfikowali proporcje swoich postów z połowy pozytywnych i połowy negatywnych na około 80 proc. negatywnych ze względu na zmianę w algorytmie" - napisano w raporcie. "Wiele ugrupowań, również te, które silnie zwróciły się w stronę negatywnej komunikacji, martwią się o długookresowe skutki tych zmian dla demokracji" - dodano.
Podobne reakcje partii politycznych jak w Polsce, naukowcy badający zmiany algorytmu na potrzeby Facebooka zaobserwowali na Tajwanie i w Indiach.
Facebook zdaje sobie sprawę ze swoich problemów, ale...
Z dokumentów ujawnionych przez Haugen wynika, że Facebook zdaje sobie sprawę z negatywnych efektów, jakie wywiera na swoich użytkowników, ale nie wie, jak je rozwiązać.
"Inżynierowie i statystycy Facebooka bardzo starają się, aby zrozumieć, dlaczego jedne posty zyskują duże zainteresowanie i są podawane dalej, a inne nie i odkryć, jak można naprawić niezdrowe >>efekty uboczne<< (zmian w algorytmie - red.)" - podsumowuje treść dokumentów stacja telewizyjna NBC News.
Jak dodaje, w 2019 roku w jednej z wewnętrznych notatek pracujący dla Facebooka inżynier napisał "zdajemy sobie sprawę, że wiele rzeczy (na Facebooku - red.), które generują zaangażowanie użytkowników, powodują, że są oni podzieleni i depresyjni".
Głos Facebooka
W oświadczeniu przesłanym naszej redakcji biuro prasowe Facebooka wskazało, że badania pokazują, iż media społecznościowe nie są wcale głównym czynnikiem powodującym polaryzację. "Są kraje, w których polaryzacja rosła przez dziesięciolecia, na długo przed pojawieniem się platform społecznościowych. Są też takie, w których ona maleje wraz ze wzrostem wykorzystania Internetu i Facebooka" - tłumaczy gigant social mediów, powołując się na wyniki badania "Cross-Country Trends in Affective Polarisation", przeprowadzonego przez Uniwersytet Stanforda w sierpień 2021r.
Platforma tłumaczy, że odgrywa istotną rolę w znalezieniu rozwiązania tego problemu. "Dlatego też naszym celem jest dalsze wprowadzanie zmian, dzięki którym ludzie będą znajdować większą wartość w korzystaniu z naszych platform" - czytamy w oświadczeniu. Stwierdzono w nim, że "obwinianie Facebooka o wzrost polaryzacji to po prostu ignorowanie faktycznych przyczyn problemu polaryzacji czy wniosków, które płyną z badań".
Równocześnie koncern zadeklarował, że kontynuuje inwestycje, mające na celu zrozumienie związku mediów społecznościowych z polaryzacją, a obecne dowody sugerują, że platforma nie jest jej głównym motorem.
Wzrost polaryzacji był w ostatnich latach przedmiotem licznych badań naukowych, jednak brak jest zgody co do przyczyn tego zjawiska. Żadne dowody nie potwierdzają tezy, że Facebook – czy szerzej media społecznościowe – są podstawową przyczyną polaryzacji lub “wojny społeczno-domowej”. Wzrost politycznej polaryzacji wyprzedził powstanie mediów społecznościowych o kilka dziesięcioleci. Gdyby prawdą było stwierdzenie, że Facebook jest główną przyczyną polaryzacji, moglibyśmy obserwować wzrost tego zjawiska w krajach, w których Facebook jest powszechny. Tak się nie dzieje. Co więcej, polaryzacja maleje w wielu krajach, w których platformy społecznościowe są powszechnie wykorzystywane, a rośnie w innych.
"Chcemy też dać ludziom większą kontrolę nad tym, co widzą. Już teraz dajemy użytkownikom możliwość ominięcia algorytmu i skomponowania własnych Aktualności na Facebooku. A ponieważ słyszymy, że ludzie chcą widzieć więcej treści pochodzących od znajomych, a mniej polityki, testujemy też sposoby, w jakie możemy to zapewnić" - podkreśla koncern Marka Zuckerberga.
W oświadczeniu platforma przypomniała, że Nick Clegg odniósł się do kwestii polaryzacji już w kwietniu, kiedy opublikował swój esej na temat algorytmu Facebooka, gdzie skomentował między innymi do tezę jakoby "polaryzacja polityczna i społeczna, zwłaszcza w Stanach Zjednoczonych, wzrosła z powodu wpływu mediów społecznościowych". Jak zaznacza gigant, ta kwestia była przedmiotem wielu poważnych badań naukowych w ostatnich latach, a ich wyniki wskazują, że media społecznościowe nie są głównym motorem polaryzacji, a dowody na istnienie efektu "bańki filtracyjnej" są w najlepszym przypadku bardzo wątłe.
"Esej Nicka miał na celu zwiększyć przejrzystość i opisać nowe mechanizmy umożliwiające kontrolę treści pojawiających się w Aktualnościach. Szeroko opisuje jak działa algorytm rankingu Facebooka – >>pomaga filtrować treści, których nie uznasz za przydatne i istotne, jednocześnie nadając priorytet treściom, które takie są<<" - czytamy w oświadczeniu platformy przesłanym naszej redakcji.
Chcemy być także bliżej Państwa – czytelników. Dlatego, jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected]. Przyszłość przynosi zmiany. Wprowadzamy je pod hasłem #CyberIsFuture.
Rain Harper
Czyżby Konfederacja?