Social media

#CyberMagazyn: Jak mocno radykalizują nas algorytmy YouTube’a?

Fot. Christian Wiediger / Unsplash

Choć niepoważne, groteskowe wręcz filmy z żółtymi napisami, to jedno z pierwszych skojarzeń, gdy myślimy o YouTube w kontekście dezinformacji i materiałów zawierających teorie spiskowe. Jednak problem algorytmów rekomendujących coraz bardziej emocjonalne i radykalizujące nas treści istnieje i jest bardzo poważny. Na czym polega fenomen radykalizacji YouTube'a i dlaczego skrajności mają tak uwodzicielską moc przyciągania?

Wszyscy chyba słyszeliśmy o fenomenie filmów wideo zawierających np. dezinformację antyszczepionkową albo jedną ze słynnych i popularnych teorii spiskowych, które ktoś zobaczył tylko dlatego, że pozwolił algorytmom YouTube'a proponować sobie kolejne treści do oglądania bez żadnej ingerencji.

To, że prędzej czy później spędzając czas w tym serwisie natrafimy na materiały prezentujące skrajności, jest pewne jak śmierć i podatki. Dlaczego tak się dzieje, skoro świadomie przecież nie wyszukujemy takich treści - i przynajmniej w oficjalnych sytuacjach towarzyskich deklarujemy absolutny brak zainteresowania mitycznymi filmikami z żółtymi napisami?

Czytaj też

Odpowiedzi na to pytanie postanowili poszukać naukowcy, którzy w swojej najnowszej analizie wykazują, że nasz brak fascynacji teoriami spiskowymi i innymi "pikantnymi" treściami na YouTube wcale nie jest tak prawdziwy, jak sami twierdzimy. Dodatkowo, osoby, które nie są podatne na oddziaływanie takich materiałów, bardzo rzadko pozwalają algorytmom proponować sobie kolejne filmiki do obejrzenia.

Droga od samouczków szydełkowania do propagandy tzw. Państwa Islamskiego wytyczona przez algorytmy to mit - wywodzą badacze i wskazują, że jeśli YouTube płata nam figla, to najprawdopodobniej mamy w tym swój udział - i to znacznie większy, niż myślimy.

Czy YouTube ma potencjał radykalizujący?

Nie znaczy to jednak, że należąca do Google'a platforma w ogóle nie przekłada się na radykalizację naszych poglądów.

Oczywiście, wielu z nas ma poglądy dalekie od politycznego centrum - i to właśnie w przypadku tych użytkowników największej na świecie platformy wideo potencjał do radykalizacji przez algorytmy proponujące nowe treści do obejrzenia jest największy.

Czytaj też

To nie "niewinni" i w żaden sposób nie poszukujący radykalnych treści politycznych użytkownicy są najbardziej narażeni na negatywne oddziaływanie algorytmów, ale właśnie te osoby, które bakcyla radykalizmu już połknęły (i stało się to gdzie indziej, niż na YouTube) - wynika z analizy cytowanej przez dziennik "New York Times".

Platforma Google'a może służyć za narzędzie do wzmacniania i utwardzania radykalnych poglądów - istnieje jednak nikłe prawdopodobieństwo, że to dzięki niej poznamy arkana mitologii zrzeszającej kręgi członków ruchu QAnon czy najbardziej pokrętne tezy antyszczepionkowców.

Profesor w Dartmouth College Brendan Nyhan, który jest współautorem omawianego badania, uważa, że w dotychczasowych dyskusjach nad oddziaływaniem algorytmów i potencjałem radykalizacyjnym YouTube'a nie docenialiśmy tego, że media społecznościowe są po prostu lustrem, w którym odbija się nasze zapotrzebowanie na określonego typu treści, które kształtowane jest zupełnie gdzie indziej.

Czytaj też

Według badania, jedynie 0,6 proc. wszystkich respondentów było odpowiedzialnych za ok. 80 proc. odsłon materiałów ekstremistycznych na YouTube, które były im proponowane przez algorytm, bądź które znaleźli za pośrednictwem linków w internecie lub odnośników zawartych w innych, obserwowanych kanałach na YouTube.

Jeden na cztery materiały wideo rekomendowane przez platformę osobom, które oglądały ekstremistyczne kanały w serwisie, również miał taki charakter - twierdzą naukowcy.

W ciągu całego badania jedynie 108 razy, co przekłada się na 0,02 proc. wszystkich osób biorących udział w eksperymencie, zdarzyło się aby osoba, która oglądała zwykłe, codzienne, "mainstreamowe" treści na platformie otrzymała nagle od algorytmu rekomendacyjnego propozycję zobaczenia filmu ekstremistycznego z kanału, jakiego nie obserwowała.

To nie treści radykalne znajdują nas, tylko my ich poszukujemy

Badacze twierdzą, że YouTube serwuje radykalne nagrania przeważnie tym osobom, o których serwis "wie", że chętnie je obejrzą, gdyż mają poglądy zbieżne z prezentowanymi tam treściami. Co ciekawe, najsilniejszym motorem radykalizacji są dryfujące w stronę skrajności poglądy w kwestiach takich jak płciowość i seksualność oraz problemy związane z pochodzeniem etnicznym różnych grup społecznych.

Czytaj też

"Z naszych badań wynika, że YouTube to platforma, która doskonale dystrybuuje treści alternatywne i ekstremistyczne do grup podatnych na nie odbiorców" - czytamy w pracy badawczej zespołu.

Ile znaczą ograniczenia metodologiczne

Badanie przeprowadzone zostało w 2020 r. po wprowadzeniu istotnych zmian w algorytmach rekomendujących treści na YouTube w związku z falą dezinformacji, która zalała serwis w czasie pandemii koronawirusa.

Nie mamy zatem do czynienia z pełnym obrazem tego, jak wcześniej wyglądało oddziaływanie algorytmów o potencjalnie radykalizującym charakterze. W poprzednich latach ich realny wpływ na użytkowników serwisu mógł być znacznie silniejszy - i jeśli istotnie tak było, to nie ma lepszego dowodu na to, że zmiany wprowadzane w mechanizmach działania platform internetowych jednak działają, a same firmy technologiczne operujące platformami - uczą się na błędach.

Czytaj też

Granice cenzury

Gdzie kończy się troska o to, by społeczeństwo było wolne od realnych zagrożeń, jakie mogą wypływać z filmików zachęcających np. do wstąpienia w szeregi bojowników tzw. Państwa Islamskiego, a gdzie zaczyna cenzura?

Gdzie są granice wolności wypowiedzi i przekonań, gdzie zaczyna się manipulacja przy tych podstawowych dla demokracji wartościach? Jaka jest rola platform społecznościowych w decydowaniu o tym, co dozwolone, a co zakazane w internecie, co powinniśmy oglądać, a co ma pozostać ukryte przed naszym wzrokiem...?

To pytania, na które powinniśmy odpowiedzieć przede wszystkim jako użytkownicy platform, aby zachowane były reguły demokratycznego dyskursu. Trudno o nie, gdy reguły gry stanowione są wyłącznie odgórnie.

Chcemy być także bliżej Państwa – czytelników. Dlatego, jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected] Przyszłość przynosi zmiany. Wprowadzamy je pod hasłem #CyberIsFuture.

Komentarze

    Czytaj także