Social media
Algorytmy platform społecznościowych pod lupą Komisji Europejskiej
Komisja Europejska na podstawie Aktu o usługach cyfrowych (DSA) wzywa wielkie platformy internetowe do ujawnienia szczegółów funkcjonowania ich systemów rekomendacyjnych. Z licznych badań i raportów wiemy, że algorytmy w mediach społecznościowych podsuwały treści dezinformacyjne i szkodliwe, zwłaszcza dla dzieci.
W obliczu kontrowersji związanych z algorytmami platform społecznościowych, które mogą sprzyjać rozpowszechnianiu szkodliwych treści, Komisja Europejska zwróciła się z komunikatem do gigantów technologicznych. YouTube, Snapchat i TikTok muszą przeanalizować i przedstawić działania związane z systemami rekomendacji treści wyświetlanym użytkownikom.
Żądanie KE wynika z przepisów Aktu o usługach cyfrowych (DSA), który reguluje działalność wielkich platform internetowych w krajach Unii Europejskiej. Termin przekazania danych wyznaczono na 15 listopada 2024 roku.
KE bierze firmy technologiczne na tapet. Czego oczekuje?
Komisja oczekuje informacji na temat roli systemów rekomendacyjnych w potencjalnym rozprzestrzenianiu nielegalnych treści, dezinformacji, w kontrolowaniu procesów wyborczych oraz wywieraniu złego wpływu na zdrowie psychiczne użytkowników, zwłaszcza poprzez treści uzależniające.
Jak wynika z DSA, platformy muszą oceniać te ryzyka i zmodyfikować swoje działania tak, aby były zgodne z przepisami (s. 22). Brak współpracy może skutkować karami finansowymi (art. 52).
Komisja podkreśla, że platformy mogą podlegać postępowaniom formalnym, jeśli dostarczane przez nie informacje okażą się niewystarczające lub niezgodne z przepisami. Postępowania w sprawie niezgodności z DSA otwarto już wcześniej np. wobec Facebooka i Instagrama.
KE wszczęła postępowanie wobec Mety, aby zbadać, czy Facebook i Instagram naruszyły przepisy DSA w zakresie ochrony małoletnich. Istniały obawy, że algorytmy tych platform mogły prowadzić do uzależnień behawioralnych u dzieci i wzmacniać tzw. efekt króliczej nory. Komisja była również zaniepokojona niską skutecznością metod weryfikacji wieku oraz kwestią domyślnych ustawień prywatności dla nieletnich.
Co czeka firmy technologiczne? W najdotkliwszym scenariuszu – kara finansowa
Po otrzymaniu informacji o możliwym naruszeniu przepisów Komisja może wszcząć dochodzenie, a w jego ramach – korzystać z narzędzi takich jak wysyłanie wniosków o udzielenie informacji, prowadzenie przesłuchań czy przeprowadzanie inspekcji. W przypadku niepełnych lub nieprawidłowych odpowiedzi Komisja ma prawo nałożyć grzywny lub inne sankcje.
Jeśli dochodzenie potwierdzi podejrzenia o naruszeniu DSA, Komisja może wszcząć formalne postępowanie. Platformy z kolei mają możliwość przedstawienia swojego stanowiska przed podjęciem decyzji przez Komisję. Sankcje mogą obejmować grzywny w wysokości do 6 proc. rocznego obrotu światowego oraz nałożenie obowiązku wprowadzenia środków zaradczych w określonym terminie.
Komisja ma także uprawnienia do stosowania sankcji za nieprzestrzeganie obowiązków wynikających z zapisów DSA, w tym do nakładania kar okresowych w wysokości do 5 proc. dziennego obrotu. W skrajnych przypadkach, gdy naruszenie wiąże się z poważnym zagrożeniem dla życia lub bezpieczeństwa, może ona również wnioskować o tymczasowe zawieszenie usługi. Decyzje KE mogą być zaskarżone do sądów, a sama procedura nie ma z góry ustalonych terminów.
Algorytmy mediów społecznościowych podsuwają dezinformację i szkodliwe treści
Algorytmy największych platform społecznościowych mogą sprzyjać rozpowszechnianiu nielegalnych treści, w tym dezinformacji, mowy nienawiści i ekstremistycznych przekazów (1, 2, 3).
Niestety mamy wiele przykładów negatywnego oddziaływania algorytmów wielkich platform internetowych na wszystkich użytkowników, w zasadzie bez wyjątku. Szkodliwe i niebezpieczne treści wyświetlają się nie tylko dorosłym, ale także dzieciom.
TikTok naraża zarówno młodszych, jak i dorosłych użytkowników
Algorytmy TikToka skutecznie podpowiadają użytkownikom treści na podstawie wcześniejszych interakcji, co przyczynia się do rozprzestrzeniania dezinformacji. Dochodzenie firmy NewsGuard wykazało, że 14 proc. analizowanych filmów dotyczących bojkotów marek i wyświetlonych łącznie 57 mln razy zawierało fałszywe informacje.
W przypadku TikToka Amnesty International informowało o tym, że wyświetlane na platformie treści stwarzają ryzyko dla dzieci, ponieważ wyświetlają im treści niebezpieczne dla zdrowia psychicznego. Z kolei „The Guardian” opisywał badanie, według którego najmłodszym użytkownikom TikToka wyświetlano treści związane z samookaleczeniem.
Jednak nie tylko najmłodsi są narażeni na szkodliwe treści. BBC ustaliło, że wyborcom w USA wyświetlano nieprawdziwe treści, klipy zawierające obraźliwe komentarze oraz fałszywe, wygenerowane przez sztuczną inteligencję filmy, które przedstawiały liderów partii.
Ponadto wydaje się, że algorytm TikToka ułatwiał rozpowszechnianie nieprawdziwych informacji o COVID-19 i o szczepionkach oraz rekomendował użytkownikom dostosowane treści, co pozwalało na rozpowszechnianie teorii spiskowych oraz uzyskiwanie przez nie popularności.
YouTube naraża użytkowników na szkodliwe i dezinformacyjne treści – niezależnie od ich zainteresowań
Badanie przeprowadzone przez Institute for Strategic Dialogue wykazało, że algorytmy YouTube’a narażają użytkowników, w tym nastolatków, na szkodliwe treści, nawet jeśli nie wykazali oni wcześniejszego zainteresowania materiałami o podobnej zawartości. Rekomendacje obejmowały filmy o tematyce seksualnej, promujące przemoc, samookaleczenia, a także materiały gloryfikujące broń. Często te materiały nie zawierały ani ostrzeżeń dotyczących treści, ani ograniczeń wiekowych (s. 7).
Analiza wykazała, że ponad połowa polecanych filmów była niezwiązana z zainteresowaniami kont, co zwiększało ryzyko przypadkowego narażenia na szkodliwe treści (s. 9). Wśród treści promowanych przez algorytmy YouTube’a należy również wyróżnić filmiki zawierające dezinformację zdrowotną, w tym fałszywe informacje o COVID-19 i o szczepionkach (s. 7).
Snapchat naraża nastolatków m.in. na „sekstorcję”
Pozew przeciwko Snap Inc. złożony przez prokuratora generalnego stanu Nowy Meksyk wskazywał na poważne problemy związane z bezpieczeństwem dzieci użytkujących tę platformę. Zarzuty dotyczą projektowania aplikacji w sposób, który przyciąga młodzież, ale jednocześnie ułatwia działalność przestępczą, w tym sekstorcję, handel dziećmi oraz rozpowszechnianie materiałów przedstawiających wykorzystywanie seksualne dzieci. Snap Inc. oskarża się również o celowe ignorowanie problemu i wprowadzanie użytkowników w błąd poprzez brak ostrzeżeń dotyczących realnych zagrożeń.
Z powodu wskazanych problemów Snapchat miał stać się miejscem, gdzie przestępcy łatwo nawiązują kontakt z nieletnimi oraz handlują nielegalnymi towarami, takimi jak narkotyki czy broń. Śledztwo ujawniło liczne przykłady sytuacji, w których aplikacja umożliwiała szybkie znalezienie kont z treściami seksualnymi oraz potwierdziło powiązania serwisu z rynkiem nielegalnych materiałów. W związku z tym postawiono zarzuty braku wystarczających działań w celu ochrony młodych użytkowników oraz ignorowania licznych ostrzeżeń o zagrożeniach.
Serwisy Mety również wykazują problemy z rekomendowanymi treściami
Badacze ustalili, że w przypadku Instagrama w ramach rekomendacji algorytmicznych użytkownikom sugerowano konta szerzące antysemityzm. Wykazano, że na treści promujące teorie spiskowe były narażone zarówno konta dorosłych, jak i nastolatków, jednak badacze zakładają, że treści kierowane do młodszych użytkowników mogą być bardziej radykalne, ze względu na rywalizację między Instagramem i TikTokiem o tę grupę wiekową (s. 12).
Ponadto wyszukiwarka platformy kierowała użytkowników do ekstremistycznych profili, nawet przy wpisywaniu neutralnych haseł, takich jak „Światowe Forum Ekonomiczne” (s. 14). Najbardziej niepokojące były jednak rekomendacje dla nastolatków, którym Instagram regularnie podpowiadał konta z antysemickimi memami (s. 12-13).
Facebook również przyczynia się do rozpowszechniania nienawistnych treści. Już na etapie konfigurowania konta nowi użytkownicy byli kierowani do stron i grup, które szerzyły treści antysemickie (s. 18). Szczególnie może niepokoić fakt, że wyszukiwanie na podstawie neutralnych haseł, takich jak „Rockefellerowie”, prowadziło w pierwszej kolejności do profilu promującego teorie spiskowe.
Podobnie jak na Instagramie, również i na Facebooku algorytmy nie tylko nie powstrzymują użytkowników przed natknięciem się na szkodliwe treści, ale wręcz ich do nich kierują. Oznacza to, że platforma nie spełnia swojej funkcji w walce z nienawiścią i dezinformacją, co stawia pod znakiem zapytania skuteczność jej regulacji i narzędzi moderacyjnych.
Poprosiliśmy o komentarz TikTok oraz YouTube
Zwróciliśmy się z prośbą o komentarz do TikToka oraz do YouTube’a i zapytaliśmy m.in.:
- jakie środki zastosowano w celu ochrony platform przed manipulacją, w kontekście dezinformacji wyborczej i starań o zapewnienie pluralizmu mediów;
- jak obydwie platformy dbają o to, aby systemy rekomendacyjne nie przyczyniały się do rozpowszechniania nielegalnych treści.
Do czasu zakończenia pracy nad tym tekstem nie otrzymaliśmy odpowiedzi na zadane pytania.
Niejednolita interpretacja DSA?
Platformy obecnie mają przed sobą nie lada wyzwanie w dostosowaniu swoich systemów rekomendacyjnych do wymogów wynikających z aktu o usługach cyfrowych. Niezależnie od tego, czy chodzi o dezinformację, o treści szkodliwe dla zdrowia psychicznego, czy też o nawoływanie do nienawiści, platformy będą musiały nie tylko przeanalizować swoje algorytmy, lecz także wprowadzić konkretne zmiany, aby zapewnić większą przejrzystość i bezpieczeństwo dla użytkowników.
W przypadku zaniedbań firmy technologiczne muszą być gotowe na sankcje, które mogą mieć wpływ na ich działalność w krajach Unii Europejskiej, a także na sposób, w jaki będę postrzegane w szerszym kontekście społecznym.
Te radykalne wnioski w nieco innym świetle przedstawia jednak Polski Instytut Spraw Międzynarodowych, który wskazuje w jednej ze swoich publikacji, że: „Nowe przepisy DSA w umiarkowany sposób wzmogą kontrolę UE nad platformami, gdyż wyzwaniem będzie niejednolita interpretacja postanowień DSA przez firmy, co może powodować spory prawne z KE”.