Social media
Jak X (nie) walczy z dezinformacją. "Musk stawia na mądrość tłumu"
Teorie spiskowe po zamachu na Donalda Trumpa, deepfake’i z Kamalą Harris, farmy rosyjskich botów, fake newsy podżegające do zamieszek w Wielkiej Brytanii – portal X jest miejscem, gdzie dezinformacja kwitnie i to natychmiast po krytycznych wydarzeniach.
29 lipca 17-letni Axel Rudakubana zabił trzy dziewczynki, które uczestniczyły w zajęciach tanecznych w Southport koło Liverpoolu. W mediach społecznościowych, w tym w portalu X, niemal natychmiast po zdarzeniu, rozprzestrzeniła się dezinformacja na temat tożsamości napastnika. Twierdzono, jakoby był on muzułmańskim azylantem z Syrii. W rzeczywistości Rudakubana urodził się w Cardiff w Walii, w chrześcijańskiej rodzinie i całe życie mieszkał w Wielkiej Brytanii. Jego rodzice pochodzą z Rwandy.
Fałszywe informacje promowali w X znani prawicowi i antyimigranccy aktywiści, w tym Stephen Yaxley-Lennon, znany pod pseudonimem Tommy Robinson, lider nieistniejącej już antyislamskiej organizacji English Defence League. Namawiali oni do ulicznych protestów, co rozpoczęło się w Southport. Zamieszki rozprzestrzeniły się następnie na wiele miast Wielkiej Brytanii. Celem antyislamskich i antyimigranckich wandali stały się meczety i hotele, w których mieszkali migranci. Doszło do gwałtownych starć z policją. O sprawie pisaliśmy w CyberDefence24.pl.
Czytaj też
Musk podsyca napięcie wokół zamieszek w Wielkiej Brytanii
Jeszcze w trakcie zamieszek premier Wielkiej Brytanii Keir Starmer wprost stwierdził, że właściciele mediów społecznościowych są współodpowiedzialni za zamieszki, chociaż nie wymienił wtedy żadnej określonej platformy z nazwy. Zaznaczył, że to co się dzieje jest przestępstwem, a Big Techy nie mogą stać ponad prawem.
„Szalony” – skomentował wystąpienie Starmera Elon Musk, właściciel portalu X. Kontrowersyjny miliarder nie poprzestał na jednym wpisie. Odpowiedział też na post, w którym jedna z użytkowniczek portalu stwierdziła, że przyczyną zamieszek w Wielkiej Brytanii jest masowa migracja i otwarte granice. „Wojna domowa jest nieunikniona” – napisał Musk.
Civil war is inevitable
— Elon Musk (@elonmusk) August 4, 2024
Właściciel portalu X jeszcze kilkukrotnie zamieszał prowokacyjne komentarze, w których krytykował obecną politykę imigracyjną brytyjskiego rządu i postawę policji.
W środę 7 sierpnia rzecznik Starmera powiedział, że komentarze Muska „nie mają żadnego uzasadnienia”.
Czytaj też
Nowe prawo ma zapobiec szkodliwym treściom w social mediach
Pod koniec ubiegłego roku w Wielkiej Brytanii uchwalono ustawę Online Safety Act, związaną z bezpieczeństwem w sieci, która nie została jednak jeszcze wdrożona. Sytuacja związana z zamieszkami sprawiła, że brytyjski rząd zaapelował do ustawodawcy o przyspieszenie tego procesu.
Online Safety Act zakłada karanie Big Techów, które nie monitorują swoich platform społecznościowych pod kątem szkodliwych treści podżegających do przemocy lub terroryzmu.
Musk nie odpowiedział bezpośrednio na krytykę brytyjskich urzędników. Zamiast tego opublikował scenę z Family Guy przedstawiającą głównego bohatera animacji na krześle elektrycznym. „W 2030 r. za komentarz na Facebooku, który nie spodobał się brytyjskiemu rządowi” – podpisał obrazek Musk.
In 2030 for making a Facebook comment that the UK government didn’t like pic.twitter.com/UhKDLeCPJb
— Elon Musk (@elonmusk) August 6, 2024
Czytaj też
Demagog: na X więcej dezinformacji niż na innych portalach
To nie pierwszy raz, kiedy Elon Musk nawiązuje do polityki portalu X, którą określa jako pozwalającą na „wolność słowa”. Jak jednak pisaliśmy w CyberDefence24.pl - takie podejście sprawia, że firmy nie chcą reklamować swoich produktów na platformie. Nie życzą sobie, aby ich marka pojawiała się np. koło treści nazistowskich czy antysemickich, które w X pojawiają się regularnie.
„Bazując na doświadczeniu naszej redakcji, która codziennie weryfikuje informacje pojawiające się w sieci mogę stwierdzić, że X jest portalem, który niechlubnie wychodzi przed szereg, jeśli chodzi o liczbę i szkodliwość dezinformacji, która pojawia się w social mediach” – komentuje Marcel Kiełtyka, członek zarządu Stowarzyszenia Demagog.
X zdecydowanie gorzej radzi sobie z dezinformacją niż choćby portale należące do Mety, a nawet Tiktok.
Marcel Kiełtyka, członek zarządu Stowarzyszenia Demagog
Kiełtyka podkreśla, że przyczyną jest brak jasnych zasad dotyczących dezinformacji oraz dynamiczny charakter portalu. „Na X znajdziemy informacje o wydarzeniach z całego świata nawet sekundy po wybuchu jakiegoś kryzysu. Niestety bardzo często właśnie przez tę dynamikę, pogoń za newsem i brak odpowiedniego filtra i weryfikacji takie informacje okazują się błędne, fałszywe lub celowo zmanipulowane” – dodaje Kiełtyka.
Jak objaśnia, często zdarza się, że X jest źródłem fake newsów, które następnie przedostają się do innych platform czy kanałów komunikacji. „Z mojego doświadczenia wynika, że fałszywe informacje, które mają swoje źródło na tym portalu, zazwyczaj właśnie tam zyskują największe zasięgi” – komentuje.
Ekspert zaznacza przy tym, że nie jest to reguła, ponieważ zdarza się, że fake newsy zapoczątkowane na X zyskują większe zasięgi np. na Instagramie czy TikToku.
Czytaj też
Jak (nie) działają notki społeczności?
Kiełtyka podkreśla, że na X brakuje odpowiednich zasad i reguł mających na celu przeciwdziałanie dezinformacji. Jedynym w miarę skutecznym systemem są tzw. notki społeczności, które nie działają jednak w jasny sposób.
Jak tłumaczy ekspert - pojawiają się one pod wpisami na platformie X, czasami również u polskich polityków – dając szerszy kontekst danej informacji, co wpływa na jej odbiór lub wprost dementuje fałszywą treść. Pierwszym polskim postem oznaczonym w tym systemie był wpis NBP, który manipulował wykresem dot. inflacji.
„Czy temu systemowi można ufać? I tak i nie, zdarzają się notki bazujące na rzetelnych źródłach i rzeczywiście trafnie punktujące dezinformację, ale zdarzają się też takie, które nie odnoszą się adekwatnie do wprowadzającego w błąd postu lub najczęściej po prostu w ogóle ich nie ma (proponowanych notek pojawia się od 4 do 8 proc.)” – tłumaczy członek zarządu Stowarzyszenia Demagog.
System jest współtworzony przez użytkowników, w związku z tym ma wiele wad. Dochodziło też do sytuacji, w których notki zostały usuwane przez Muska bez żadnego konkretnego powodu.
„Elon Musk stawia na »mądrość tłumów«, argumentując to wolnością słowa i różnymi spojrzeniami na świat. Tym próbuje przekonać do siebie użytkowników. Problem w tym, że »mądrość tłumu« nie zawsze idzie w parze z faktami” – ocenia Kiełtyka.
Czytaj też
Poglądy a notki społeczności
Musk tłumaczy, że stronniczość użytkowników oceniających daną treść będzie eliminowana dzięki algorytmowi, który „bierze pod uwagę nie tylko to, ilu współużytkowników oceniło daną uwagę jako pomocną, lecz także to, czy osoby, które ją oceniały, wydają się mieć różne poglądy”. Kiełtyka podkreśla, że nie wiadomo jednak, jak oceniane są te poglądy.
Ekspert Demagoga wyjaśnia, że Musk udostępnił kod strony, a przewodnik portalu wyjaśnia, że system nie pyta o poglądy polityczne, a zamiast tego grupuje weryfikatorów na podstawie dotychczas wystawionych ocen. „Jednak rozwiązanie to ma sporo wad, ponieważ nie zawsze jest tak, że użytkownicy oceniający te same treści w podobny sposób, mają podobne lub zbliżone poglądy. Nie zawsze jest też tak, że użytkownicy oceniający inaczej daną treść mają inne poglądy. To tylko intuicyjne założenie, które prowadzi w zasadzie do osiągania konsensusu ideologicznego, a na to nie ma miejsca w świecie faktów i nauki” – mówi Kiełtyka.
Trudno jest mi wyobrazić sobie sytuację, w której 100 osób z prawej i lewej strony zgodnie uzna, że np. szczepionki są skuteczne. A jeśli tak wspólnie nie uznają, to notka się nie pojawi, czego skutkiem będzie brak jakiejkolwiek weryfikacji.
Marcel Kiełtyka, członek zarządu Stowarzyszenia Demagog
Jak podaje Kiełtyka - badanie z czerwca 2023 pokazuje, że program notek społeczności nie zmniejszył ekspozycji na informacje wprowadzające w błąd.
Czytaj też
Sprawdzeni weryfikatorzy w mediach społecznościowych
Co ciekawe, jak zauważa ekspert, w podobny sposób do portalu X, działa Wikipedia - użytkownicy sami tworzą treści, wzajemnie się weryfikując.
System Wikipedii działa od lat, jest już dobrze przetestowany, bazuje na stałych zaufanych wolontariuszach i pracownikach, a jednak tam też zdarzają się problemy. Wikipedia moim zdaniem nigdy nie powinna być pierwotnym źródłem do weryfikacji. Ale śmiało można korzystać z niej jako pewnego rodzaju pomocy do znalezienia rzetelnej treści.
Marcel Kiełtyka, członek zarządu Stowarzyszenia Demagog
Kiełtyka podkreśla, że „community notes” to w zasadzie jedyny system przeciwdziałania dezinformacji na X. Wcześniej zajmowali się tym pracownicy z zespołu ds. bezpieczeństwa, których Musk zwolnił w zeszłym roku.
„Z walką z dezinformacją zdecydowanie lepiej radzi sobie np. Meta na Instagramie i Facebooku, a nawet Tiktok - angażując do sprawdzania postów niezależnych fact-checkerów. To daje przede wszystkim możliwość sprawdzenia fake news przez profesjonalny zespół, mający duże doświadczenie i na co dzień zajmujący się researchem, cross-checkiem i docieraniem do jak najbardziej pierwotnych i rzetelnych źródeł” – komentuje ekspert Stowarzyszenia Demagog.
Dodaje, że Meta posiada rozbudowany system Niezależnej Weryfikacji Informacji na całym świecie, dzięki czemu treści dezinformujące są oznaczane, demonetyzowane, obniżane pod kątem zasięgów, a w przypadku recydywistów nawet usuwane. Jednak to Meta zawsze na końcu podejmuje decyzje, co zrobić z daną treścią. „Oczywiście jest jeszcze sporo do poprawy, na co niezależne organizacje i Unia Europejska cały czas zwracają uwagę” – podkreśla Kiełtyka.
Czytaj też
Boty w serwisie X a rosyjska dezinformacja
Kolejną sprawą jest kwestia botów pojawiających się na X. Przykładowo wyniki analizy postów z marca i kwietnia br. wykazały, że spośród kont popierających Donalda Trumpa i krytykujących Joe Bidena, 12 391 (15 proc. wszystkich zbadanych) jest nieprawdziwych. Z kolei spośród kont wspierających obecnego prezydenta, 803 (7 proc. zbadanych) nie było autentycznych. O sprawie pisaliśmy na naszych łamach.
„Musk obiecał walkę z nimi, używał nawet argumentu zbyt dużej liczby botów w ramach negocjacji przy chęci zerwania zawartej umowy kupna - jeszcze wtedy Twittera. Jednak problem botów na platformie amerykańskiego miliardera nadal występuje, a postawiłbym nawet tezę, że jest większy niż choćby kilka lat temu” – komentuje Kiełtyka.
Farmy botów są używane w celach politycznych, np. wpływania na wyniki wyborów lub przez Rosjan, szerzących fałszywe informacje dotyczące wojny w Ukrainie.
X jest też świetnym pudłem rezonansowym dezinformacji, która swoje początki ma np. na rosyjskim Telegramie.
Marcel Kiełtyka, członek zarządu Stowarzyszenia Demagog
„Tak naprawdę kwestia walki z rosyjską czy chińską propagandą, czy dezinformacją na X wygląda bardzo podobnie jak przeciwdziałanie tym zjawiskom w innych tematach” – komentuje Kiełtyka.
System „weryfikacji” kont
Jak podkreśla ekspert, walka z rosyjską i chińską dezinformacją w X, sprowadza się do notek społeczności, indywidualnej inicjatywy użytkowników, dziennikarzy i portali fact-checkingowych oraz niewystarczających zasad w regulaminie platformy.
„Uważam, że ta walka jest nawet trudniejsza po zmianach jakie wprowadził Musk modyfikując np. system weryfikacji kont. Teraz w zasadzie każdy może mieć zweryfikowane konto - kupując sobie tę weryfikację. I pomimo ostrzeżeń ekspertów mieliśmy już sytuacje, w których prokremlowscy aktorzy dezinformacji podszywali się pod oficjalne instytucje, siejąc chaos informacyjny” – twierdzi Kiełtyka.
Ekspert podkreśla, że dostęp do API także jest trudniejszy, co wpływa negatywnie na badanie mechanizmów i sposobów rozprzestrzeniania się dezinformacji, w tym kreowanej przez wrogo nastawione państwa.
Czytaj też
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].