Social media
Algorytmy traumy. Facebook nadal serwuje użytkownikom traumatyzujące ich treści
Funkcjonalności, które mają ograniczać wyświetlanie niechcianych treści na platformach Mety w praktyce nie działają – wynika z najnowszego badania Fundacji Panoptykon „Algorytmy traumy 2”. Facebook czy Instagram walczą za wszelką cenę o uwagę użytkowników i nadal pokazują im treści, bazujące na ich słabościach i lękach.
Fundacja Panoptykon skupiająca się na m.in. badaniu wpływu platform społecznościowych na użytkowników po raz drugi przyjrzała się, jak działają algorytmy na platformach Mety. Czy wskazywanie przez użytkownika, jakich treści nie chce oglądać w praktyce działa na to, co widzi na swojej tablicy?
W ramach badania „Algorytmy Traumy 2” fundacja wraz z Piotrem Sapieżyńskim z Northeastern University przeanalizowała newsfeed (aktualności - każda osoba widzi tam treści organiczne, reklamy oraz treści rekomendowane) użytkowniczki, które cierpi na zaburzenia lękowe. W ramach studium przypadku sprawdzano czy może się uwolnić od traumatyzujących ją treści. Jakie były wyniki?
Czytaj też
Facebook sam podsuwa traumatyzujące treści
Platformy Mety podsuwają użytkownikom treści rekomendowane pod hasłem: „proponowane dla ciebie”. Facebook pokazuje je, ponieważ algorytmy „uważają”, że wzbudzi to zainteresowanie i przyciągnie uwagę danego użytkownika. Uwaga natomiast oznacza więcej czasu spędzonego na platformie, potencjalnie większe zaangażowanie (udostępnienia, polubienia), a czas spędzany w serwisie przekłada się z kolei na większe zyski z reklam. Dlatego tak istotne są – z punktu widzenia Mety – personalizowane treści (na podstawie cech i zainteresowań przypisanych danej osobie przez Facebooka).
Użytkowniczka – nazwana na potrzeby badania Joanną – czytała w sieci artykuły o zdrowiu i m.in. zapisała się do grup wsparcia dotyczących określonych chorób. Co pokazywała jej platforma?
Mimo jej nieustannego lęku o zdrowie, Facebook serwował jej artykuły z nagłówkami takimi jak: „Wmawiali jej, że to depresja. 10 cm guz dał już przerzuty z jelit do wątroby”, „Zauważyła dziwne objawy na twarzy córki. Tak dawał o sobie znać rzadki nowotwór”, „Dwulatek zmarł po kąpieli w gorącym źródle. Groźna ameba zjadła chłopcu mózg”, „Trafiła do szpitala z bólem brzucha. Amputowali jej 3 kończyny”. To tylko zwiększało w niej poczucie niepokoju i lęki o nabycie kolejnych chorób.
Jak wskazuje Fundacja Panoptykon, w teorii kobieta mogła wykonać kilka kroków, aby zmniejszyć liczbę wyświetlanych treści o tej tematyce m.in. klikając w opcję: „Ukryj post. Wyświetlaj mniej postów podobnych do tego”. Problem w tym, że jednak w praktyce ta funkcjonalność nie przekłada się realnie na to, co proponują algorytmy treści.
„Platformy społecznościowe powodują szkody społeczne i indywidualne w związku z tym, że są zoptymalizowane na wyzyskiwanie uwagi i na utrzymywanie naszego zaangażowania często kosztem zdrowia psychicznego czy kondycji psychicznej. Mówi się często o skali uzależeniania od smartfonów. Tu nie chodzi o smartfon jako urządzenie, to nie przedmiot jest źródłem problemu, ale to co się na nim wyświetla” - podkreśliła w czasie briefingu Katarzyna Szymielewicz, prezeska Fundacji Panoptykon.
Toksyczne treści serwowane codziennie
Na jakiej podstawie taki wniosek wyciągnęli badacze? Przez niemal dwa miesiące kontrolowali feed użytkowniczki, na łamach którego pojawiło się ponad 2,5 tys. postów w kategorii „proponowane dla ciebie”, co stanowiło 22 proc. wszystkich wyświetlonych treści.
Co istotne, 56 proc. postów (czyli dokładnie 1416 wpisów) zostało wskazanych jako toksyczne. Wśród nich znalazły się te, które dotyczyły np. pozornie niewinnych objawów śmiertelnej choroby, wypadków i śmierci małych dzieci czy dramatycznych wypadków i morderstw. W niektóre dni aż 8/10 postów z kategorii „proponowane dla ciebie” były toksyczną treścią, co średnio daje liczbę 27 postów dziennie.
Drugim zatrważającym wnioskiem z badania jest fakt, że użytkowniczka oznaczała posty, których nie chce oglądać i… niewiele to dało. W ciągu tygodnia 122 razy kliknęła przycisk „ukryj to/ wyświetlaj mniej”. Jakie były wyniki? Odsetek niechcianych, toksycznych dla niej treści jeszcze nieznacznie wzrósł – zarówno w całym newsfeedzie, jak i w kategorii „proponowane dla ciebie”.
Dyskusja bez firmy Meta
Na briefingu dla dziennikarzy, na którym byliśmy obecni nie było – mimo zaproszenia – przedstawiciela polskiego oddziału firmy Meta. Zdaniem Fundacji Panoptykon, za „algorytmy traumy” odpowiada model biznesowy platformy, polegający na maksymalnym zaangażowaniu uwagi osób, które z niej korzystają, a w Polsce jest to ponad 26 mln osób. To przekłada się bowiem na realne zyski firmy.
„Projektowane usługi są świadomie optymalizowane pod efekt, którego ludzie sobie nie życzą. Czasami chodzi tylko o scrollowanie, a czasami dlatego, bo mają problem taki jak Joanna i takie treści autentycznie im szkodzą. W związku z tym badaniem, poddała się ona diagnostyce psychiatrycznej i dostała potwierdzenie, że rzeczywiście - tego typu wpisy jej szkodzą. Wiemy, że takich przypadków na świecie jest bardzo wiele” - zaznaczyła Katarzyna Szymielewicz.
„To tak, jakby osobę uzależnioną od alkoholu na spotkaniach grupy AA częstowano lampką wina” – podsumowała Fundacja.
AKTUALIZACJA: Meta: "To badanie jest wadliwe"
(Aktualizacja z dnia 8 grudnia, godzina 16:00)
W nawiązaniu do naszego artykułu, otrzymaliśmy komentarz od firmy Meta w sprawie opisanego wyżej badania. Biuro prasowe przekazało, że ich zdaniem „to badanie jest wadliwe”.
„Jego próbę badawczą stanowi jedna osoba, zakłada także, że użytkownicy nie mają żadnego wpływu na to, co wyświetla się im w Aktualnościach na Facebooku. Analizie poddane jest wyłącznie jedno narzędzie do kontrolowania wyświetlanych treści, podczas gdy oferujemy ich o wiele więcej” – przekazało nam biuro prasowe Meta.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].