Reklama

Social media

Algorytmy traumy. Facebook nadal serwuje użytkownikom traumatyzujące ich treści

Jak działają algorytmy, które proponują użytkownikom treści na Facebooku?
Jak działają algorytmy, które proponują użytkownikom treści na Facebooku?
Autor. Priscilla Du Preez 🇨🇦/ Unsplash/ Solen Feyissa/ Unsplash; Modyfikacje: CyberDefence24

Funkcjonalności, które mają ograniczać wyświetlanie niechcianych treści na platformach Mety w praktyce nie działają – wynika z najnowszego badania Fundacji Panoptykon „Algorytmy traumy 2”. Facebook czy Instagram walczą za wszelką cenę o uwagę użytkowników i nadal pokazują im treści, bazujące na ich słabościach i lękach.

Reklama

Fundacja Panoptykon skupiająca się na m.in. badaniu wpływu platform społecznościowych na użytkowników po raz drugi przyjrzała się, jak działają algorytmy na platformach Mety. Czy wskazywanie przez użytkownika, jakich treści nie chce oglądać w praktyce działa na to, co widzi na swojej tablicy?

Reklama

W ramach badania „Algorytmy Traumy 2” fundacja wraz z Piotrem Sapieżyńskim z Northeastern University przeanalizowała newsfeed (aktualności - każda osoba widzi tam treści organiczne, reklamy oraz treści rekomendowane) użytkowniczki, które cierpi na zaburzenia lękowe. W ramach studium przypadku sprawdzano czy może się uwolnić od traumatyzujących ją treści. Jakie były wyniki?

Czytaj też

Facebook sam podsuwa traumatyzujące treści

Platformy Mety podsuwają użytkownikom treści rekomendowane pod hasłem: „proponowane dla ciebie”. Facebook pokazuje je, ponieważ algorytmy „uważają”, że wzbudzi to zainteresowanie i przyciągnie uwagę danego użytkownika. Uwaga natomiast oznacza więcej czasu spędzonego na platformie, potencjalnie większe zaangażowanie (udostępnienia, polubienia), a czas spędzany w serwisie przekłada się z kolei na większe zyski z reklam. Dlatego tak istotne są – z punktu widzenia Mety – personalizowane treści (na podstawie cech i zainteresowań przypisanych danej osobie przez Facebooka).

Reklama

Użytkowniczka – nazwana na potrzeby badania Joanną – czytała w sieci artykuły o zdrowiu i m.in. zapisała się do grup wsparcia dotyczących określonych chorób. Co pokazywała jej platforma?

Mimo jej nieustannego lęku o zdrowie, Facebook serwował jej artykuły z nagłówkami takimi jak: „Wmawiali jej, że to depresja. 10 cm guz dał już przerzuty z jelit do wątroby”, „Zauważyła dziwne objawy na twarzy córki. Tak dawał o sobie znać rzadki nowotwór”, „Dwulatek zmarł po kąpieli w gorącym źródle. Groźna ameba zjadła chłopcu mózg”, „Trafiła do szpitala z bólem brzucha. Amputowali jej 3 kończyny”. To tylko zwiększało w niej poczucie niepokoju i lęki o nabycie kolejnych chorób.

Jak wskazuje Fundacja Panoptykon, w teorii kobieta mogła wykonać kilka kroków, aby zmniejszyć liczbę wyświetlanych treści o tej tematyce m.in. klikając w opcję: „Ukryj post. Wyświetlaj mniej postów podobnych do tego”. Problem w tym, że jednak w praktyce ta funkcjonalność nie przekłada się realnie na to, co proponują algorytmy treści.

Platformy społecznościowe powodują szkody społeczne i indywidualne w związku z tym, że są zoptymalizowane na wyzyskiwanie uwagi i na utrzymywanie naszego zaangażowania często kosztem zdrowia psychicznego czy kondycji psychicznej. Mówi się często o skali uzależeniania od smartfonów. Tu nie chodzi o smartfon jako urządzenie, to nie przedmiot jest źródłem problemu, ale to co się na nim wyświetla” - podkreśliła w czasie briefingu Katarzyna Szymielewicz, prezeska Fundacji Panoptykon.

Toksyczne treści serwowane codziennie

Na jakiej podstawie taki wniosek wyciągnęli badacze? Przez niemal dwa miesiące kontrolowali feed użytkowniczki, na łamach którego pojawiło się ponad 2,5 tys. postów w kategorii „proponowane dla ciebie”, co stanowiło 22 proc. wszystkich wyświetlonych treści.

Co istotne, 56 proc. postów (czyli dokładnie 1416 wpisów) zostało wskazanych jako toksyczne. Wśród nich znalazły się te, które dotyczyły np. pozornie niewinnych objawów śmiertelnej choroby, wypadków i śmierci małych dzieci czy dramatycznych wypadków i morderstw. W niektóre dni aż 8/10 postów z kategorii „proponowane dla ciebie” były toksyczną treścią, co średnio daje liczbę 27 postów dziennie.

Badanie Fundacji Panoptykon: "Algorytmy traumy 2"
Badanie Fundacji Panoptykon: "Algorytmy traumy 2"
Autor. Screen z prezentacji Fundacja Panoptykon

Drugim zatrważającym wnioskiem z badania jest fakt, że użytkowniczka oznaczała posty, których nie chce oglądać i… niewiele to dało. W ciągu tygodnia 122 razy kliknęła przycisk „ukryj to/ wyświetlaj mniej”. Jakie były wyniki? Odsetek niechcianych, toksycznych dla niej treści jeszcze nieznacznie wzrósł – zarówno w całym newsfeedzie, jak i w kategorii „proponowane dla ciebie”.

Fundacja Panoptykon zbadała, jak algorytmy podsuwają nam na Facebooku niechciane treści.
Fundacja Panoptykon zbadała, jak algorytmy podsuwają nam na Facebooku niechciane treści.
Autor. Screen z prezentacji Fundacja Panoptykon

Dyskusja bez firmy Meta

Na briefingu dla dziennikarzy, na którym byliśmy obecni nie było – mimo zaproszenia – przedstawiciela polskiego oddziału firmy Meta. Zdaniem Fundacji Panoptykon, za „algorytmy traumy” odpowiada model biznesowy platformy, polegający na maksymalnym zaangażowaniu uwagi osób, które z niej korzystają, a w Polsce jest to ponad 26 mln osób. To przekłada się bowiem na realne zyski firmy.

„Projektowane usługi są świadomie optymalizowane pod efekt, którego ludzie sobie nie życzą. Czasami chodzi tylko o scrollowanie, a czasami dlatego, bo mają problem taki jak Joanna i takie treści autentycznie im szkodzą. W związku z tym badaniem, poddała się ona diagnostyce psychiatrycznej i dostała potwierdzenie, że rzeczywiście - tego typu wpisy jej szkodzą. Wiemy, że takich przypadków na świecie jest bardzo wiele” - zaznaczyła Katarzyna Szymielewicz.

„To tak, jakby osobę uzależnioną od alkoholu na spotkaniach grupy AA częstowano lampką wina” – podsumowała Fundacja.

AKTUALIZACJA: Meta: "To badanie jest wadliwe"

(Aktualizacja z dnia 8 grudnia, godzina 16:00)

W nawiązaniu do naszego artykułu, otrzymaliśmy komentarz od firmy Meta w sprawie opisanego wyżej badania. Biuro prasowe przekazało, że ich zdaniem „to badanie jest wadliwe”.

„Jego próbę badawczą stanowi jedna osoba, zakłada także, że użytkownicy nie mają żadnego wpływu na to, co wyświetla się im w Aktualnościach na Facebooku. Analizie poddane jest wyłącznie jedno narzędzie do kontrolowania wyświetlanych treści, podczas gdy oferujemy ich o wiele więcej” – przekazało nam biuro prasowe Meta.

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama
Reklama

Komentarze