Social media

„Łapka w dół” na YouTube niemal nie wpływa na to, co widzimy w rekomendacjach

Fot. Javier Miranda / Unsplash

„Łapka w dół" wciśnięta pod filmem na YouTube świadcząca o tym, że nie podobało nam się i nie chcemy widzieć podobnych treści, tak naprawdę ma bardzo niewielki wpływ na to, co widzimy w rekomendacjach, jakie proponują nam algorytmy serwisu – wynika z najnowszego raportu badaczy Mozilli.

Fundacja Mozilla w swoim najnowszym opracowaniu wskazuje, że to, iż wcisnęliśmy „nie lubię", czyli przycisk „łapki w dół" pod proponowanym nam przez algorytm serwisu YouTube materiałem, tak naprawdę wywiera bardzo niewielki wpływ na to, co rekomenduje nam platforma.

YouTube nie pozwala użytkownikom na wpływ

Należąca do Google'a platforma wideo od dłuższego czasu twierdziła, że pozwala swoim użytkownikom wpływać na to, co proponują im algorytmy. Co więcej, osoby korzystające z tego serwisu mają dysponować całkiem szerokim wachlarzem możliwości informowania algorytmów, że proponowane przez serwis treści wcale im się nie podobają.

Czytaj też

Fundacja Mozilla wskazuje jednak, że wszystkie te sposoby są mało wydajne, jeśli chodzi o faktyczne przełożenie się na wpływ na to, co proponują użytkownikom YouTube'a algorytmy rekomendujące treści. Nawet, jeśli wciskamy „łapkę w dół" pod rekomendowanymi nam materiałami, które wcale nam się nie podobają, propozycje i tak nie zmieniają się i nadal możemy otrzymywać niechciane treści – wynika z eksperymentu badaczy.

12 proc. wpływu

Wciśnięcie przycisku „nie lubię" na YouTube miało wpływać na zmniejszenie ilości niechcianych treści w proponowanych przez algorytmy materiałach jedynie o 12 proc. – wykazała Mozilla.

Wciśnięcie przycisku „nie polecaj tego kanału" okazało się już efektywne w 43 proc. przypadków.

11 proc. skuteczności wykazywało korzystanie z przycisku „nie interesuje mnie to" przy proponowanych filmikach, 29 proc. zaś – wyrzucanie obejrzanego wcześniej nagrania z historii obejrzanych na YouTube materiałów.

Jak dokonano analizy?

Zespół badawczy Fundacji Mozilla przeanalizował ponad 567 mln nagrań wideo z serwisu YouTube rekomendowanych przez algorytmy 22,7 tys. uczestnikom eksperymentu.

Aby zbadać zmiany algorytmów rekomendacji, w ramach doświadczenia wykorzystano narzędzie RegretReporter opracowane przez Mozillę do badania algorytmów.

Czytaj też

Narzędzie gromadziło dane na temat doświadczeń uczestników eksperymentu podczas korzystania z platformy wideo Google'a.

Jak wykazało, decyzje podejmowane przez użytkowników względem rekomendacji mają niewielki wpływ na to, co serwis im proponuje do oglądania. W praktyce, jesteśmy zdani na nietransparentny algorytm, którego działania YouTube niezwykle pilnuje i nie dzieli się mechaniką jego funkcjonowania z opinią publiczną.

Więcej autonomii dla użytkowników

Jedna z badaczek biorących udział w eksperymencie po stronie zespołu naukowców, Jesse McCrosky, w rozmowie z dziennikiem „New York Times" ocenia, że serwis powinien bardziej respektować wybory użytkowników.

„Może powinniśmy wreszcie zacząć szanować ludzką autonomię i godność i wysłuchać tego, co ludzie nam mówią zamiast po prostu wpychać im do gardła cokolwiek co przyjdzie nam do głowy, że połkną" – powiedziała.

YouTube broni swoich systemów

Serwis wideo z kolei broni działania swoich algorytmów rekomendacji. „Nasze mechanizmy kontroli nie filtrują w całości tematów lub punktów widzenia, gdyż może to negatywnie oddziaływać na użytkowników i tworzyć np. komory pogłosowe" – powiedziała cytowana przez „NYT' rzeczniczka YouTube'a Elena Hernandez.

Czytaj też

Jej zdaniem raport Mozilli nie bierze pod uwagę tego, jak naprawdę działają systemy rekomendacji YouTube'a i dlatego trudno jest serwisowi w tej sprawie zebrać więcej przemyśleń w temacie.

YouTube powołało się również na własne ankiety przesyłane użytkownikom, z których wynika, że – jak wskazuje platforma – są oni generalnie zadowoleni z tego jak działają rekomendacje i co im proponują, a także z tego, iż platforma nie próbuje zapobiegać rekomendowaniu wszystkich treści związanych z jakimś tematem, opinią lub autorem wypowiedzi.

Firma zastrzegła jednak, że chętnie będzie współracowała z naukowcami w ramach swoich nowych projektów badawczych poświęconych właśnie rekomendacjom treści.

YouTube, odkąd tylko wdrożyło algorytmy rekomendujące treści, pokazuje każdemu użytkownikowi spersonalizowaną wersję swojej platformy – przypomina nowojorski dziennik.

To algorytmy decydują o tym, co widzimy w serwisie, podejmując decyzję na podstawie naszej historii przeglądanych treści, ale i innych zmiennych.

Czytaj też

Serwis był wielokrotnie krytykowany za to, że ten sposób działania algorytmów rekomendowania treści prowadzi np. do wzrostu popularności treści dezinformujących na platformie, które są proponowane użytkownikom mimo, że ci ich nie szukają.

Problem dotyczy również materiałów wideo zawierających brutalne bądź inne budzące silne emocje sceny, jak np. przemoc wobec zwierząt – mimo wciskania przycisku „nie lubię" i „wyklikiwania" takich materiałów wideo z poleceń, ostatecznie pojawiają się tam one ponownie, po dłuższym czasie.

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected]

Komentarze

    Czytaj także