Reklama

Technologie

Zrozumieć algorytmy. Batorski: Świadomość rośnie, ale nie jest jeszcze powszechna [WYWIAD]

Autor. Kelly Sikkema/ Unsplash/ Domena publiczna

„Tak jak mówiłem o algorytmach dostępu do informacji, tak wierzę w usługi, w których to my jesteśmy klientami, tj. to my płacimy za algorytmy. Wcale w sieci nie korzystamy z czegokolwiek za darmo, de facto jesteśmy towarem sprzedawanym reklamodawcom” - podkreśla Dominik Batorski, badacz i analityk mediów społecznościowych w rozmowie z CyberDefence24.pl. Czy da się zrozumieć algorytmy, które nimi rządzą?

Reklama

Dominik Batorski to socjolog, analityk social mediów, specjalista ds. analizy danych w Interdyscyplinarnym Centrum Modelowania Matematycznego i Komputerowego Uniwersytetu Warszawskiego, współtwórca firmy badawczej Sotrender.

Reklama
Autor. Dominik Batorski/ Twitter/ archiwum prywatne
Reklama

W rozmowie z CyberDefence24.pl mówi o roli i znaczeniu algorytmów oraz ich wpływie na działanie mediów społecznościowych.

Nikola Bochyńska, CyberDefence24.pl: O, tym że algorytmy decydują, jakie treści informacyjne, reklamowe są nam wyświetlane, jakie zdjęcia rodziny i znajomych pokazywane – wiemy nie od dziś. Coś z tą wiedzą jako społeczeństwo zrobiliśmy?

Dominik Batorski: Niewątpliwie świadomość znaczenia algorytmów rośnie, ale nie jest jeszcze bardzo powszechna. Na wyższym poziomie jest świadomość dotycząca wpływu, jakie wywierają media tradycyjne. Spora część Polaków zdaje sobie sprawę, że redakcje decydują o tym, czego się dowiadujemy, a o czym nie.

Odbiorcy są świadomi, że w różnych mediach mówi się o innych sprawach lub nawet o tych samych tematach, ale w inny sposób. Zrozumienie, że algorytmy odgrywają bardzo podobną rolę, tj. decydują o tym, co widzimy, a co do nas nie dociera, jest na znacznie niższym poziomie.

Skoro mówimy o tym, że część społeczeństwa zdaje sobie sprawę z tego, jak działają algorytmy, z zagrożenia, jakie się z tym wiąże; kiedy można uznać, że algorytmy nie są dla nas groźne, a wręcz przynoszą nam korzyści?

Niewątpliwie potrzebujemy selekcji informacji. Żyjemy w świecie, w którym jest to potrzebne. Media niegdyś miały ograniczoną objętość, więc to redaktorzy, wydawcy decydowali o tym, co zmieści się w wydaniu programu informacyjnego; o czym będzie się mówiło. W przypadku internetu, tak naprawdę nie ma wielkich ograniczeń, co do ilości opublikowanych informacji. W konsekwencji, użytkownicy nie są w stanie wszystkiego przeczytać. Jeśli spojrzymy na to, ile jest dostępnych informacji każdego dnia w przeciętnym portalu informacyjnym, to jest to wielokrotnie więcej, niż było jeszcze kilka lat temu.

Przeciętny użytkownik Facebooka mógłby widzieć kilka tysięcy treści dziennie, a jest w stanie zobaczyć tylko kilka procent z nich. Potrzebna jest selekcja, a więc i algorytmy.

Algorytmy Facebooka działają w ten sposób, że częściej pokazywane są nam treści od osób i ze stron, na które częściej reagujemy lub zwrócili na nie uwagę nasi znajomi. To może być sposób na społeczne filtrowanie informacji. Niestety, te algorytmy nie są optymalizowane pod nasze potrzeby jako użytkowników.

Algorytm optymalizuje zaangażowanie i woli podsuwać treści, które wzbudzają większe emocje, co przekłada się na to, że spędzimy więcej czasu w serwisie, że obejrzymy więcej reklam. Niekoniecznie treści, które sprawią, że będziemy lepiej poinformowani. O tym trzeba pamiętać.

Czytaj też

Czy mamy jakieś alternatywy?

Używam własnych algorytmów do odbioru treści, czytnika RSS do którego mam podpiętych 1000 różnych źródeł. Dzięki własnym algorytmom wiem, co powinienem de facto przeczytać. To realna korzyść.

Wspomniał pan o strumieniu danych. Mówi się też: „kto ma dane, ten ma władzę”. Danymi karmią się właśnie algorytmy. Jest sposób, aby jakoś ten nieustający strumień danych zatrzymać? Czy jedyną opcją jest życie offline?

Jestem przekonany, że idealną sytuacją jest kontrola człowieka nad technologią. Może wtedy działać w naszym interesie. Filtrowanie informacji jest absolutnie konieczne. Pytanie, jakich algorytmów używamy i komu one służą. Czy służą nam i naszym interesom, czy jakimś innym podmiotom.

Algorytmy a polityka

Na danych opiera się funkcjonowanie Big Techów, w sieci nie ma nic za darmo, każdy z nas zostawia cyfrowy ślad. To, że polubimy czyjeś zdjęcie może zdradzić naszą płeć, rasę, orientację seksualną, poglądy polityczne czy religijne, cechy osobowości. Czy zwykły „lajk” może obrócić się przeciwko nam? Przypomina pan sobie taką sytuację?

Rzeczywiście zbieranych danych jest bardzo dużo - tak jak mówiłem o algorytmach dostępu do informacji; tak wierzę w usługi, w których to my jesteśmy klientami, tj. to my płacimy za algorytmy. Wcale w sieci nie korzystamy z czegokolwiek za darmo, de facto jesteśmy towarem sprzedawanym reklamodawcom.

Wracając do pytania: wydaje mi się, że jest kilka aspektów na które warto zwrócić uwagę. Nie mówimy tylko o danych, które sami zostawiliśmy, przecież niekoniecznie muszę zadeklarować swój wiek, płeć czy orientację seksualną. To są kwestie, które reklamodawcy mogą wywnioskować na podstawie moich zachowań na platformie. Sam budowałem tego typu rozwiązania w oparciu o uczenie maszynowe - jesteśmy w stanie nauczyć algorytmy, które na podstawie aktywności użytkownika będą przewidywały różne jego cechy. Facebook operuje kilkudziesięcioma tysiącami cech, które wnioskuje na podstawie zachowań użytkowników. To często są cechy bardzo złożone, wykorzystywane potem w targetowaniu reklam.

Czasem informacje na nasz temat są nadużywane w celach reklamowych. Na przykład jeden z moich znajomych dostał zaproszenie do facebookowej grupy dla pacjentów z bardzo specyficznym problemem zdrowotnym. Był w szoku, skąd reklamodawca wiedział, jak do niego dotrzeć.

Zagrożeniem jest też systemowe manipulowanie użytkownikami dla celów politycznych - nie wobec indywidualnych osób, ale na szerszą skalę. Przykładowo, w ostatniej kampanii parlamentarnej mieliśmy akcje profrekwencyjne. Pamiętam jedną reklamę kierowaną stricte do kobiet w wieku 18-25 lat, mieszkających w dużych miastach, z dala od miejsca pochodzenia. Reklama przedstawiała Jarosława Kaczyńskiego, arcybiskupa Jędraszewskiego i ojca Tadeusza Rydzyka. Zawierała hasło: „Nie pozwól, aby stare dziadki zabrały ci przyszłość” i odsyłała do stron, które informowały, jak zarejestrować się, by głosować poza miejscem zamieszkania.

I to była kampania polityczna skierowana do młodych kobiet z dużych miast, które w większości mają lewicowe poglądy.

Na tę reklamę zostało wydanych od kilkuset do tysiąca złotych. Dotarła ona do kilkudziesięciu tysięcy osób. Tego typu praktyki odbywają się poza kontrolą wydatków na kampanie wyborcze. Istnieje duży potencjał do manipulacji, nadużyć. Nie mówiąc o sytuacjach, kiedy dane są wykorzystywane przez przestępców.

Najbardziej znanym przykładem wykorzystania mediów społecznościowych politycznie jest kampania Donalda Trumpa (w 2016 roku – red.). W Polsce partie polityczne mają wciąż wiele do nauczenia się czy powoli wyrównujemy poziom amerykańskich kampanii w social mediach?

Jesteśmy bardzo daleko od poziomu amerykańskiego. Myślę, że nie jesteśmy nawet na właściwej ścieżce, aby do niego dojść. Pojawiają się jakieś elementy, które są zbliżone. Kampania Trumpa w 2016 roku mocno opierała się na mikrotargetowaniu i docieraniu do konkretnych grup wyborców, aby zniechęcić do udziału w wyborach. W Polsce tego typu inicjatywy też się pojawiały - po raz pierwszy w wyborach samorządowych w 2018 roku mieliśmy reklamy i profile zniechęcające do głosowania na kandydatów. Były na przykład profile, które obśmiewały Rafała Trzaskowskiego jako kandydata, reklamy kierowały do jego potencjalnych wyborców i sceptycznych wobec wyborów w ogóle. Ale w drugą stronę także - istniały profile atakujące Patryka Jakiego.

Mimo wszystko, jesteśmy bardzo daleko pod względem amerykańskich kampanii, przede wszystkim ze względu na budżety, jakie są na nie kierowane. Mówimy o wydatkach rzędu kilkuset tysięcy - miliona na reklamy w social mediach. W kampaniach amerykańskich to dziesiątki czy setki milionów dolarów. Reklam jest też znacznie więcej. Sztab Donalda Trumpa w niewyborczym roku wypuścił blisko 200 tys. reklam. Dla porównania: w Polsce kandydatem, który opublikował najwięcej reklam – około 500, był Michał Jaros – został on posłem z ramienia PO we Wrocławiu. Jego reklamy były targetowane, ale wciąż to niewielka skala, nie można porównywać jej do amerykańskiej.

Pierwsza wojna cyfrowa?

Jeśli chodzi o rolę mediów społecznościowych, nie tylko w życiu codziennym, to na przykładzie wojny w Ukrainie widzimy, że są istotne także w obliczu konfliktu zbrojnego. Mówi się nawet, że to „pierwsza wojna cyfrowa” na tak masową skalę, a wygrać może ten, kto poprowadzi skuteczną wojnę informacyjną. Tak teraz będą wyglądały potencjalne konflikty przyszłości, będą toczyły się na równi w social mediach?

Wojna jest wielkim polem eksperymentalnym na którym różnego rodzaju technologie i rozwiązania są testowane. Pojawiają się nowe pomysły, których wcześniej nie było i to w bardzo różnych wymiarach. W Polsce najwięcej mówi się o działalności pomocowej, ale jeśli spojrzymy na to, co dzieje się w samej Ukrainie na polu technologicznym - na choćby przykładzie aplikacji crowdfundingowych; programów, które pomagają w namierzeniu celów dla ukraińskiej artylerii czy dronów, gdzie każdy obywatel używając takiej aplikacji może przesyłać ważne dla wojska informacje – to jest to pewnego rodzaju novum. Spięcie tego z rządową aplikacją Diia, co umożliwia lepszą ocenę wiarygodności i de facto podniesienie jakości danych, to też coś, co nigdy wcześniej nie miało miejsca.

Coś dla pana było zaskoczeniem, jeśli chodzi o wykorzystanie mediów społecznościowych w tej wojnie?

Z pewnością działania ukraińskie, nastawione na dotarcie do międzynarodowej opinii publicznej i mobilizowanie do pomocy są świetnie zorganizowane. To nie jest coś nowego, ale to, jak sprawnie i systematycznie jest to realizowane - w moim odczuciu budzi respekt.

W Sotrender ogłaszaliście, że rozpoczynacie analizę danych z serwisu Telegram, czyli najważniejszego obecnie medium w kontekście wojny w Ukrainie. Jaka platforma z punktu widzenia badaczy będzie najważniejsza, jeśli chodzi o analizę danych, a jaka najistotniejsza dla społeczeństwa? Wiemy, że z popularnością poszczególnych platform jest różnie – jedni zyskują, z niektórych – jak z Facebooka – użytkownicy odchodzą.

Każda z platform ma inne wzorce wykorzystania, z innych względów są ważne. Facebook w Polsce jest kluczowy, bo korzysta z niego 23 mln osób. Dla wielu jest sposobem docierania do informacji, często za jego pośrednictwem użytkownicy trafiają na newsy.

Z drugiej strony, z Twittera korzysta znacznie mniej osób, ale korzystają z niego specyficzne grupy: politycy, dziennikarze, branża technologiczna. W efekcie wpływ Twittera wynika z jego przełożenia na to, o czym się dyskutuje i mówi w innych mediach.

TikTok, do pewnego stopnia YouTube - wykorzystywane są przez młodszą widownię.

Z kolei Telegram jest niezwykle istotny na obszarze rosyjskojęzycznym, w Ukrainie, na Białorusi. Za jego pośrednictwem docierają do nas informacje z tamtych regionów, pod tym względem Telegram jest znacznie lepszą platformą do obserwowania.

Różne perspektywy, różne źródła danych sprawiają, że każda z tych platform dostarcza innego kawałka pejzażu medialnego.

Da się w takim razie jakoś oszukać algorytmy? Poza klikaniem w artykuły, strony, które nas wcale nie interesują? Z drugiej strony, to też byłoby błędne koło.

Po pierwsze, często platformy dają jednak pewien wpływ na to, jak działają algorytmy. Trzymając się przykładu Facebooka, mamy opcję np. ukrywania określonych postów, włączenia powiadomień lub ich wyłączenia o danym użytkowniku. Zatem pewien wpływ na to, co widzimy – mamy. Aczkolwiek owszem, jest on dosyć ograniczony.

Wiem, że trwają prace, aby zwiększać wpływ użytkownika na treści, jakie widzi. Także regulacje, które w tej chwili są dyskutowane na poziomie europejskim mają doprowadzić do tego, że algorytmy będą transparentne, więc będziemy wiedzieli, w jaki sposób działają. Docelowo będziemy mieli nad nimi większą kontrolę. Osobiście mam nadzieję, że jako użytkownicy będziemy mogli sami decydować, jakie mechanizmy decydują o tym, jakie treści do nas docierają.

Czy istnieje możliwość „cofnięcia się” ze stanu w którym jesteśmy obecnie – niektórzy uznają go za definitywny koniec prywatności - do czasów, gdzie mogliśmy zachować swoje dane dla siebie? Wydaje mi się, że mimo wszystko z naszą prywatnością nie jest tak źle. Oczywiście przekonanie „o końcu prywatności” ma swoje podstawy. Zresztą sama prywatność nie jest tak starym wynalazkiem - zaczęła się pojawiać, kiedy ludzie zaczęli żyć w dużych skupiskach miejskich; kiedy żyli w małych, podobnie – wiedzieli o sobie bardzo dużo.

Znaczenie regulacji

Regulacje prowadzą jednak do tego, abyśmy - jako użytkownicy – mogli mieć większy wpływ, jakie dane są o nas zbierane, co się z tymi danymi dzieje. Myślenie gigantów technologicznych, jakie obserwuję - idzie w stronę zwiększenia prywatności – jak można zbierać mniej informacji i ich nie wykorzystywać. Mówiliśmy o tym, że Facebook wykorzystuje nasze zainteresowania na swojej platformie, ale ich system reklamowy się zmienia. Oczekiwałbym, że będą dalsze zmiany.

Google też jakiś czas temu zapowiadał odejście od tzw. third-party cookies w przeglądarce Chrome. Jeśli spojrzymy na przeglądarki internetowe, to w coraz większym stopniu się zmieniają i ograniczają skrypty, które pochodzą z firm trzecich: analitycznych czy reklamowych. Widać całkiem dużą ewolucję internetu, która idzie w stronę zwiększania prywatności, a nie jej likwidowania. Mam nadzieję, że ten trend będzie ewoluował.

Podsumowując, jest pan zatem optymistą czy pesymistą, jeśli chodzi o to, jak platformy społecznościowe traktują użytkowników?

Powiedziałbym, że technologie i ich użycie kształtuje się przez lata. Cały czas jesteśmy na etapie, że technologie internetowe się kształtują. Z rozwojem nowych technologii wiąże się też wiele zagrożeń. Myślę, że wiele z nich jest wdrażanych, kiedy nie bardzo wiemy, jakie mogą być uboczne efekty tych rozwiązań i kiedy bardzo słabo je rozumiemy.

Mimo wszystko sposób pracy nad technologiami jest kształtowany społecznie, jest to pewnego rodzaju proces nad którym jako społeczeństwo mamy kontrolę. Jestem przekonany, że jeśli pojawiają się negatywne aspekty, to wciąż możemy mieć na to wpływ i starać się je ograniczać, a wzmacniać te pozytywne. Nie jest to łatwe, wciąż jest wiele wyzwań. Nie mam poczucia, że świetnie sobie z tym radzimy. Być może w kwestii algorytmów potrzebujemy medycznego podejścia - zanim wypuścimy nowy lek do sprzedaży, musi przejść cały szereg testów. Na razie głównie reagujemy, kiedy problem jest nam już dobrze znany.

Dziękuję za rozmowę.

Czytaj też

Chcemy być także bliżej Państwa – czytelników. Dlatego, jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected]. Przyszłość przynosi zmiany. Wprowadzamy je pod hasłem #CyberIsFuture.

Reklama

Komentarze

    Reklama