Social media

YouTube: Walka z dezinformacją ma wymiar kulturowy

fot. Rachit Tank/ Unsplash/ Domena publiczna

"Kontekst historyczny, kulturowy oraz bieżące wydarzenia mogą prowadzić  do lokalnych narracji opartych na nieprawdziwych informacjach" - mówi Neal Mohan, dyrektor ds. produktów w YouTube. Opowiedział o tym, w jaki sposób serwis radzi sobie z niektórymi  wyzwaniami, w tym np. zwalczaniem potencjalnie szkodliwych nieprawdziwych informacji.

Neal Mohan wskazał jak wyglądają prace nad walką z dezinformacją na platformie wideo.

„W ciągu ostatnich 5 lat zainwestowaliśmy wiele w model, który nazywamy czterema filarami odpowiedzialności. Używając kombinacji systemów uczących się oraz ludzi, szybko usuwamy szkodliwe treści, promujemy wiarygodne źródła i ograniczamy rozprzestrzenianie się problematycznych materiałów" – wymieniał.

Jego zdaniem połączenie tych narzędzi jest kluczowe w ograniczaniu liczby wyświetleń nieodpowiednich treści przy zachowaniu otwartości na platformie.

Dyrektor ds. produktów w YouTube wymienił trzy wyzwania, z którymi zespoły platformy muszą się zmierzyć.

1. Wyłapywanie nowych obszarów dezinformacji

„Coraz częściej pojawiają się zupełnie nowe teorie i szybko zyskują na popularności. Narracje mogą też prześlizgiwać się z jednego tematu na drugi – np. ogólne treści dotyczące zdrowia mogą nawiązać do wątpliwości w kwestii szczepień. Każda narracja może wyglądać i oddziaływać na odbiorców inaczej, a niektóre z nich mogą mieć typowo lokalny charakter" – powiedział Neal Mohan.

Przypomniał, że na samym początku pandemii COVID-19, teoria o rozprzestrzenianiu koronawirusa przez wieże 5G skłoniła ludzi do palenia stacji bazowych w Wielkiej Brytanii. „W związku z niezaprzeczalnym ryzykiem realnych szkód wywołanych przez te informacje postanowiliśmy wpisać tego typu treści na listę niedozwolonych w nowej wersji naszych wytycznych" – powiedział.

Czytaj też

„Szkolimy nasz system nowych danych. Szukamy więc sposobów na wykorzystanie bardziej ukierunkowanych klasyfikatorów, słów kluczowych w wielu językach i informacji od regionalnych analityków do identyfikowania narracji, których nasz główny klasyfikator nie wyłapuje. Z czasem sprawi to, że będziemy szybciej i dokładniej wyłapywać te dezinformacje" - wyjaśnił.

Poza ograniczaniem zasięgu niektórych treści, systemy giganta wideo podsuwają widzom filmy z informacjami z wiarygodnych źródeł w wynikach wyszukiwania i w rekomendacjach. „W przypadku ważnych wydarzeń, takich jak klęska żywiołowa, tworzymy panele informacyjne, aby kierować widzów do artykułów tekstowych dotyczących danego tematu. W przypadku tematów niszowych, których media mogą nie omawiać, udostępniamy widzom pola wyboru faktów" – dodał.

2. Ograniczanie wyświetleń filmów potencjalnie wprowadzających w błąd z innych platform

Kolejnym wyzwaniem jest rozprzestrzenianie się filmów bliskich łamania wytycznych poza YouTube.

„Są to filmy, które w świetle naszych zasad nie kwalifikują się do usunięcia, ale niekoniecznie chcemy je polecać użytkownikom. Przeprowadziliśmy restrukturyzację naszych systemów rekomendacji, aby konsumpcja treści, które są bliskie łamania wytycznych i pochodzą z naszych rekomendacji, wynosiła mniej niż 1 proc." – zaznaczył przedstawiciel YouTube.

3. Ograniczanie dezinformacji na całym świecie

Zdaniem Mohana, w różnych kulturach ludzie inaczej postrzegają to, co czyni źródło wiarygodnym. W niektórych krajach publiczni nadawcy, tacy jak BBC w Wielkiej Brytanii, są uważani za źródło wiarygodnych informacji. Z kolei w innych krajach działalność nadawców państwowych może być bliska propagandy.

"W swoich ekosystemach wiadomości i informacji państwa mają różnorodne podejście do prezentowanego zakresu treści – ich dostawcy mogą wymagać rygorystycznego sprawdzania faktów albo nadzorować je i weryfikować w ograniczonym stopniu. Środowiska polityczne, kontekst historyczny oraz bieżące wydarzenia mogą prowadzić do powstawania lokalnych narracji opartych na nieprawdziwych informacjach" – podkreślił.

Czytaj też

W jego opinii ważny jest właśnie ten kontekst kulturowy. „To, co uznajemy za dopuszczalną granicę, również może podlegać znaczącemu zróżnicowaniu. Zawsze bierzemy pod uwagę to, jak wytyczne naszych weryfikatorów treści mogą być interpretowane w różnych językach i kulturach" - powiedział Mohan.

„Rozważamy dalsze zaangażowanie we współpracę z ekspertami i organizacjami pozarządowymi z całego świata. Podobnie jak w przypadku tematów błyskawicznie zdobywających popularność, pracujemy nad sposobami częstszego aktualizowania modeli, co umożliwi nam wychwytywanie regionalnych informacji wprowadzających w błąd dzięki obsłudze lokalnych języków" – wskazał.

Chcemy być także bliżej Państwa – czytelników. Dlatego, jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected] Przyszłość przynosi zmiany. Wprowadzamy je pod hasłem #CyberIsFuture.

Komentarze

    Czytaj także