Polityka i prawo
Facebook gotowy na wybory parlamentarne w Polsce? Platforma wyciąga wnioski po Cambridge Analytica [WYWIAD]
„Popełniliśmy błędy, wyciągnęliśmy wnioski, a kary zaakceptowaliśmy jako część porozumienia”. O tym czy Cambridge Analytica zaszkodziła wizerunkowi Facebooka i jakie działania zostały podjęte przed wyborami parlamentarnymi w Polsce mówi Jakub Turowski, odpowiedzialny w Facebooku za politykę publiczną w Polsce i krajach bałtyckich.
Bezpieczeństwo w sieci, zagrożenia wynikające z działalności w cyberprzestrzeni są obecnie na świeczniku działalności władz państwowych nie tylko w kontekście wprowadzenia rewolucyjnych zmian w obszarze ochrony danych osobowych, ale również z uwagi na nagłaśniane przypadki przestępstw związanych z funkcjonowaniem w sieci – czy w związku z nowymi regulacjami dot. ochrony danych wprowadzonymi na terenie Unii Europejskiej uruchomione zostały nowe mechanizmy ochrony użytkowników?
Facebook oczywiście dostosował się do przepisów wynikających z RODO jeszcze przed wejściem w życie Dyrektywy, ale od tamtej pory konsekwentnie wprowadzamy kolejne zmiany zwiększające transparentność i poziom ochrony danych użytkowników. Dam przykład sprzed dosłownie kilku dni. Zapowiedzieliśmy narzędzie dające podgląd na “Off-Facebook Activity”, czyli na dane wymieniane pomiędzy platformą, a innymi stronami. Użytkownik będzie mógł przejrzeć z jakich serwisów pochodzą te dane, wyczyścić historię, a także całkowicie zrezygnować z dobierania reklam w oparciu o te dane w przyszłości.
Nieposiadanie konta na Facebooku czy to prywatnego czy to firmowego jest niemal równoznaczne z nieistnieniem. Z drugiej strony zauważa się sytuacje, w których użytkownicy, często wykorzystując konta nie funkcjonujące pod rzeczywistymi danymi, nadużywają swobody w sieci lub celowo działają na rzecz szkodzenia, nękania czy podszywania się pod innych użytkowników – w jaki sposób Facebook radzi sobie z tym problemem?
Ludzie są bardziej odpowiedzialni za swoje wypowiedzi i działania, gdy znana jest ich prawdziwa tożsamość. Dlatego nasze Standardy Społeczności bardzo jasno zabraniają tworzenia nieprawdziwych tożsamości, a w szczególności wykorzystywania ich do podszywania się pod inne osoby czy podmioty. Walkę z fałszywymi profilami zaczynamy już w momencie próby ich założenia. Wykorzystując mechanizmy uczenia maszynowego każdego dnia blokujemy ponad milion takich profili w trakcie zakładania, jeszcze zanim pojawią się na platformie. Tylko w pierwszym kwartale tego roku, zablokowaliśmy w sumie ponad 2,2 miliarda fałszywych profili, z czego 99,8% wykryliśmy sami, bez konieczności polegania na zgłoszeniach użytkowników. Większość z nich została zidentyfikowana w ciągu pierwszych minut po rejestracji. Oczywiście nie byłoby to możliwe bez mechanizmów AI i uczenia maszynowego.
W jaki sposób wykrywane są konta funkcjonujące w sposób niezgody z regulaminem i jak przebiega ich likwidacja?
Egzekwowanie Standardów Społeczności na naszych platformach, z których korzysta ponad 2,7 miliarda ludzi na całym świecie to oczywiście wyzwanie. Musimy przeanalizować miliony zgłoszeń każdego tygodnia, dlatego korzystamy zarówno z raportów członków naszej społeczności, pracy tysięcy moderatorów, jak również zautomatyzowanych mechanizmów, często opartych na AI i uczeniu maszynowym. Pracownicy analizujący zgłaszane treści posługują się ponad 50 językami i pracują we wszystkich strefach czasowych, tak by zagwarantować wsparcie wszystkich rynków przez całą dobę.
Automatyzacja z kolei pomaga, gdy trzeba działać w dużej skali. Na przykład, gdy 1000 osób zgłosi ten sam komentarz, wystarczy, że sprawdzimy go jeden raz. Wykorzystujemy ją także do wyszukiwania i usuwania treści terrorystycznych, dzięki czemu do 99% takich materiałów docieramy samodzielnie i usuwamy je, nie czekając aż zostanie zgłoszona. Automatyczne mechanizmy pomagają również priorytetyzować zgłoszenia i wyłowić te, w których czas reakcji ma największe znaczenie, na przykład dotyczące prób samobójczych.
Wiele się mówi o odpowiedzialności platformy, rządy próbują nałożyć nowe obostrzenia prawne czy zmusić władze Facebooka do wzięcia odpowiedzialności za nielegalne działania czy to użytkowników czy to różnych grup. Czy tego typu niezgodna z regulaminem działalność, naruszająca dobra innych użytkowników, wymaga z punktu widzenia platformy nowych regulacji prawnych?
Mark Zuckerberg zajął w kwestii regulacji bardzo jasne stanowisko, wskazując, że organy nadzoru powinny odgrywać bardziej aktywną rolę w procesie aktualizacji zasad dotyczących korzystania z Internetu. Podzielił je na cztery obszary, w których nowe regulacje byłyby korzystne: szkodliwe treści, uczciwość wyborów, prywatność i przenoszenie danych.
Niezależnie od globalnych i krajowych procesów regulacyjnych, jako firma przedefiniowaliśmy naszą rolę w ochronie platformy oraz członków naszej społeczności i zrobiliśmy to, wsłuchując się w głosy ekspertów oraz współpracując z przedstawicielami władz. W lipcu, po wielu miesiącach negocjacji, ogłosiliśmy porozumienie z amerykańską Federalną Komisją Handlu, które będzie szkieletem dla nowych mechanizmów ochrony prywatności i informacji powierzanych nam przez ludzi. Porozumienie wprowadza bardziej rygorystyczne procesy służące identyfikacji zagrożeń dla prywatności. Będziemy również dokładniej dokumentować podejmowane przez nas decyzje i monitorować ich skutki. Co kwartał będziemy sprawdzać, czy nasze mechanizmy kontroli prywatności działają. A jeśli znajdziemy problemy, upewnimy się, że zostaną naprawione.
Jak kary finansowe nałożone w Stanach Zjednoczonych i Wielkiej Brytanii wpłynęły na funkcjonowanie platformy? Czy wizerunkowo zaszkodziły Facebookowi?
Popełniliśmy błędy, wyciągnęliśmy wnioski, a kary zaakceptowaliśmy jako część porozumienia, o którym wspominałem przed chwilą.
Minął już ponad rok od kryzysu związanego z Cambridge Analytica, który wywołał dużo emocji nie tylko jeśli chodzi o aspekt ingerowania w proces wyborczy i wpływania na decyzje wyborców, ale również cały kryzys wizerunkowo nie ominął również samego Facebooka – w jaki sposób kryzys wpłynął na funkcjonowanie platformy? Jakiego rodzaju działania zostały podjęte, aby nie dopuścić do powtórki z tej sytuacji?
Ostatnie półtora roku dobitnie pokazało znaczenie naszej odpowiedzialności za ochronę danych i informowania ludzi o tym, jak działa Facebook i jakie dane przekazują. Teraz jesteśmy zupełnie inną firmą niż byliśmy wtedy. Wprowadziliśmy szereg zmian w narzędziach oraz zasadach postępowania z danymi. Można je podzielić na kilka grup. Po pierwsze, znacznie zaostrzyliśmy kryteria dostępu do danych przez naszych partnerów, tak by zminimalizować ryzyko nadużyć w przyszłości. Po drugie, osoby korzystające z platformy mają teraz większą kontrolę nad danymi, które udostępniają. Po trzecie, staliśmy się bardziej transparentni. Wreszcie po czwarte, wprowadziliśmy kategorię reklam politycznych, które muszą być teraz oznaczane, dzięki czemu odróżniają się od pozostałych reklam.
Po Cambridge Analytica, w międzyczasie mieliśmy również doniesienia o stosowaniu platform społecznościowych również w ramach prowadzenia dezinformacji przy kampanii Brexitowej czy referendum w Katalonii. W Polsce chociażby sami użytkownicy wskazują na liczną działalność botów przy wydarzeniach politycznych czy społecznych. Jak Facebook radzi sobie z problemem wykrywania niestandardowej działalności w sieci? Czy wprowadzono jakiekolwiek nadzwyczajne mechanizmy zwalczania tej działalności?
Takim mechanizmem, wprowadzonym przed ostatnimi wyborami europejskimi, jest konieczność oznaczania wszystkich reklam politycznych, w tym takich, które choć nie odnoszą się do konkretnej partii lub kandydata, to dotyczą istotnych kwestii będących tematem debaty politycznej. Zgodnie z nowymi zasadami, wszyscy reklamodawcy, którzy chcą publikować takie reklamy muszą przedstawić dokumenty niezbędne dla weryfikacji ich tożsamości oraz potwierdzenia lokalizacji w danym kraju. Dzięki temu możemy zapobiec publikacji reklam i ogłoszeń wyborczych przez zagraniczne podmioty, które próbują ingerować w integralność wyborów.
Reklamy polityczne na Facebooku oraz Instagramie muszą być wyraźnie oznaczone oraz uwzględniać zastrzeżenie z informacją o tym, przez kogo zostały opłacone. Po kliknięciu etykiety można uzyskać także dostęp do bardziej szczegółowych informacji, m.in. o budżecie kampanii, której częścią jest dana reklama, oraz o liczbie osób, które ją widziały. Dodatkowo stworzyliśmy Bibliotekę reklam. W tym miejscu zgromadzono wszystkie reklamy sklasyfikowane jako związane z polityką lub zagadnieniami o istotnym znaczeniu w debacie publicznej. Będziemy je tam przechowywać przez siedem lat.
W ostatnich miesiącach zidentyfikowaliśmy także na całym świecie szereg sieci stron, które często angażowały się w działania dezinformacyjne. W każdym przypadku zasada działania była podobna: powstawała grupa odrębnych stron, skupionych na popularnych, neutralnych tematach, takich jak sport i hobby. Strony te sprawiały wrażenie wiarygodnych i przyciągnęły setki tysięcy obserwatorów. Następnie, poprzez serię wprowadzających w błąd zmian nazw i połączeń stron, administratorzy przyłączali je do innych, najczęściej nacechowanych politycznie stron, w celu sztucznego zwiększenia liczby ich odbiorców. Należy jednak zauważyć, że decyzja o usunięciu takich stron jest konsekwencją zachowania ich twórców, a nie publikowanych przez nich treści.
Czy w związku z wyborami parlamentarnymi w Polsce przygotowują się Państwo na potencjalne wykrywanie i reagowanie na sygnały związane z możliwością wykorzystania platformy do prowadzenia nieuprawnionych działań?
Jesteśmy w stałym kontakcie z administracją publiczną w Polsce i wspólnie próbujemy znajdować odpowiedzi na pojawiające się wyzwania. Efektem tej współpracy jest między innymi tzw. „punkt kontaktowy” dający możliwość dodatkowego zweryfikowania decyzji o usunięciu treści z platformy, który został uruchomiony w Polsce w ubiegłym roku.
Oczywiście będziemy stale monitorować aktywność na naszej platformie. Obowiązywać będą restrykcyjne zasady publikacji reklam politycznych, o których wspominałem wcześniej. Nasze zespoły będą także nadal monitorować platformę pod kątem wszelkich naruszeń Standardów Społeczności, współpracujemy również z zewnętrznymi partnerami w kwestii identyfikowania nieprawdziwych informacji, tzw. false news.