Social media
#CyberMagazyn: Prof. Jan Kreft: „W internecie bardzo wielu krzyczy, ale niewielu jest słuchanych” [WYWIAD]
- Żyjemy w czasach, w których myślimy o antropocenie, kosztach klimatycznych, dewastacji Ziemi – ważnych tematach, które jednak zepchnęły do kąta inny istotny problem – refleksji nad konsekwencjami tego, że nasze życie społeczne przeniosło się do cyberprzestrzeni - przestrzega prof. Jan Kreft w rozmowie z CyberDefence24.pl.
Nikola Bochyńska, CyberDefence24.pl: Były prezydent USA Donald Trump pozwał Facebooka, Twittera i YouTube’a za blokadę jego kont i twierdzi, że wszystkie firmy dopuściły się cenzury oraz naruszyły jego prawo do wolności wypowiedzi. Gdzie wobec tego przebiega granica między prawem do wolności wypowiedzi a cenzurą?
Prof. Jan Kreft: To pytanie natury filozoficznej na które nie ma dobrej odpowiedzi. Granica jest tam, gdzie definiują ją platformy i tylko w teorii możemy odwoływać się do polskiego prawa prasowego, sformułowanego w 1984 roku, które nijak ma się do obecnej rzeczywistości.
Natomiast cicha wojna między prezydentem a Twitterem trwała już od co najmniej roku. Mówiąc ogólnie, takie mamy media społecznościowe, jakie sobie ufundowaliśmy masowo z nich korzystając – w tej chwili ustalają one standardy dyskursu publicznego. Jeżeli myślę o władzy algorytmów, to rozumiem przez to asymetrię zależności pomiędzy organizacją a człowiekiem, która obecnie jest czymś naturalnym w „stosunkach” między platformą a człowiekiem w cyberprzestrzeni. Jest to nowe zjawisko. W przypadku tradycyjnych mediów, takich jak prasa, czy telewizja odbiorca mógł dość łatwo sobie wyobrazić, jak te media funkcjonują. Dzisiaj, w przypadku platform takich, jak Facebook, nie ma na to żadnej szansy. Jego możliwości poznawcze są niewystarczające, jest bezradny. Ponadto granica jego wolności w sieci jest nieustannie redefiniowana i trwa ciągłe przeciąganie liny między platformami korzystającymi z algorytmicznego zarządzania użytkownikami, a rządami państw oraz takich organizacji, jak Unia Europejska, która na przykład prowadzi obecnie prace nad ustalaniem granic w zakresie rozpoznawalności twarzy.
Wracając natomiast do Trumpa, to nie byłoby dyskusji wokół władzy platform, gdyby nie wydarzenia polityczne z końca ubiegłego roku i z początku bieżącego. Chodzi mi o wtargnięcie zwolenników Trumpa na Kapitol, ale też o presję, jaką Izba Reprezentantów w USA zaczęła wywierać, by doprowadzić do ograniczenia władzy platform, w tym także o ukrócenie ich antykonkurencyjnych praktyk. Wydaje się, że to był moment przełomowy. Oto politycy dostrzegli nie tylko szanse, ale i zagrożenia płynące z ekspansji gigantów cyfrowych.
By jednak być precyzyjnym, trzeba dodać, że zbyt wielka była i nadal jest wiara w dobrodziejstwa płynące z ich ekspansji. Tymczasem trzeba pamiętać, że Facebooka nie zaprogramowano i rozbudowano po to, by był przyzwoity, by zwalczał fake newsy i aby był jednoznacznie odpowiedzialny społecznie. Dziś jest wiodącą organizacją na świecie, ponieważ jest łatwo programowalny biznesowo, by nieustannie rósł.
Myślę, że kiedy Mark Zuckerberg tworzył Facebooka nawet nie miał pojęcia, jak wielka to będzie platforma.
Skądże, to kolejne dziecko kalifornijskiej ideologii solicjonizmu, która zakłada, że organizacje cyfrowe czy programiści zajmują się z powodzeniem rozwiązywaniem problemów społecznych. Jeśli jakiś algorytm go nie rozwiązuje, to trzeba go napisać na nowo. To wiara w to, że robotyzacja, internatyzacja, dataizm rozwiążą każdy problem społeczny. Zuckerberg, Bezos, Gates w to wierzą. Raptem minęło 20 lat, a Facebook jest dziś raczej „Earthbookiem”, przestał być medium społecznościowym mniej więcej w 2015-2016 roku. Stał się organizacją, która posiada platformę do opisania rzeczywistości. Jest eksperymentalnym systemem do obserwowania świata i tego, jak świat reaguje na zmiany społeczne.
Owszem, jest w tej niezwykłej ekspansji odpowiedzialny społecznie, ale tylko w takim zakresie, w jakim musi być. Mało kto wie, ale powstał w jego ramach – całkiem niedawno – zespół responsible artificial intelligence (odpowiedzialna sztuczna inteligencja - red.). Problem w tym, że zamiast koncentrować się na dezinformacji, skupia się na analizie potencjalnej stronniczości algorytmów, czyli na tym, co dziś zarzuca Trump Facebookowi, bo akurat ten problem uznano za istotny dla rozwoju całej korporacji. Jeśli skupiłby się na dezinformacji, byłoby to sprzeczne z celami biznesowymi platformy. W efekcie nadal aktualne pozostaje twierdzenie, że algorytmy Facebooka nie powstały po to, aby usuwać niepożądane treści, ale by angażować ludzi, by podrzucać im treści, które będą ich ekscytowały lub oburzały, bez większego znaczenia czy są prawdziwe, czy fałszywe. Otwarte pozostaje natomiast pytanie: czy powinniśmy w ogóle marzyć o tym, aby Facebook był odpowiedzialny za to, co jest fałszywe, czy prawdziwe. Czy należy oddawać te decyzję korporacji.
Dataizm jak nowa religia
Wspomniał pan o „dataizmie”, w pana książce określa go pan jako „nowy mit” i „nową religię danych”. Gdzie nas to zaprowadzi?
Dataizm jest nową wiarą w to, że wszystko można zapisać w kodzie cyfrowym. Człowiek jest wedle tej teorii niczym innym, jak algorytmem i dostawcą danych. Konsekwencją tego jest fakt, że filozofia ustąpiła miejsca inżynierii. Można to zamknąć w równaniu: wiedza obliczeniowa razy dane - równa się zdolność do zhakowania człowieka. Mówiąc o „zhakowaniu” nie mamy tu na myśli określenia pejoratywnego, który jest mylony często z „crackowaniem”, tylko rozwiązywanie ważnego problemu. Dataizm to wiara, że nasze myśli, uczucia, radości czy smutki możemy zapisać w zapisie kodu. To „religia” i wiara, że świat jest naprawialny poprzez naukę jego kodowania. Gdzie nas to zaprowadzi? Bardzo dobre pytanie. Skoro tak wiele młodych ludzi zmienia zawody i stajemy się wyznawcami wierzenia, że przyszłość należy do informatyki, to stanowi to społeczny dowód słuszności, że dataizm ma sens.
Skoro to algorytmy właściwie zastępują nas w wyborach, dotyczących tego, czego chcemy słuchać, co kupować, oglądać, kogo znamy... czy my jeszcze podejmujemy decyzje samodzielnie, czy to algorytm podejmuje je za nas?
W 2013 roku dr Michał Kosiński napisał słynny artykuł na temat tego, że Facebook wie o nas więcej niż rodzina, jeśli zamieściliśmy na nim odpowiednią liczbę postów, na przykład 150. Uwierzyli w to marketerzy, specjaliści ds. przeciwdziałania zagrożeniom w cyberprzestrzeni, politycy. Stąd wziął się problem Cambridge Analityca, choć było więcej firm, które zajmowały się tego typu działalnością, ale mniej głośnych i aroganckich. Uwierzyliśmy, że CA wybrała prezydenta USA, pojawiły się głosy, że przyczyniła się też do wyboru prezydenta Andrzeja Dudy.
Sprawa nie jest jednak taka prosta. Chodzi raczej o to, jak interpretujemy władzę platform i algorytmów. Asymetria w stosunku do algorytmów nie odnosi się dzisiaj do opisu człowieka, ale przede wszystkim jego aktywności konsumenckich, a przecież to jedynie część ludzkich działań, niezwykłego bogactwa ludzkiej egzystencji.
To, że uwierzyliśmy, że organizacje cyfrowe wspierają demokrację – to tylko nasze skrzywienie poznawcze, choć bardzo zaraźliwe. Nawet w Facebooku w 2010 roku wierzono, że nie byłoby Arabskiej Wiosny, gdyby nie było tej platformy. Szybko przyszła jednak refleksja, że z tych samych narzędzi korzystają nie tylko ci, którzy obalają dyktatury, ale też sami dyktatorzy. FB posłużył im jako kapitalne narzędzie do identyfikowania i wychwytywania osób, które występowały na przykład przeciwko prezydentowi Baszszarowi al-Asadowi. Z jednej strony media społecznościowe wspierają zatem demokrację, a z drugiej – są narzędziem do jej niszczenia. Wszystko zależy od interpretacji.
Wydarzenia z początku br. W Stanach Zjednoczonych i szturm na Kapitol pokazały wielu osobom, że komunikaty nadawane w social mediach mogą przełożyć się na realne działanie, które zagraża zdrowiu i życiu. Kiedy właściwie zdaliśmy sobie z tego sprawę i czy to nie jest jednak za późno?
Za późno z pewnością jest. Co więcej, powiem przewrotnie: nigdy tak naprawdę, nie zdaliśmy sobie z tego do końca sprawy. Doprowadziła nas do tego wiara w to, że rozwój sam w sobie jest dobry, bez głębszych refleksji społecznych, etycznych, kulturowych. I nadal w to wierzymy. Tymczasem dobrze by było, aby uczyć również nowej dziedziny – etyki algorytmicznej i aby była ona obowiązkowa. Mówiąc wprost, jestem wielkim zwolennikiem, by już od przedszkola wprowadzać kursy dotyczące odpowiedzialnego używania technologii.
Regulacje nie nadążają za rozwojem technologicznym
Z drugiej strony potrzebna jest edukacja medialna.
Pierwsze jaskółki już się pojawiają. W Finlandii powstały pierwsze ośrodki leczenia uzależnień od internetu. To już nie tylko zachwyt nad technologiami, ale i refleksja nad ich konsekwencjami społecznymi, politycznymi.
Problem w tym, że wielkie platformy są nie tylko zbyt wielkie, ale także zbyt szybkie, by upaść. Nie wierzę zatem w to, że regulacje na poziomie państwowym, czy wspólnotowym będą nadążały za rozwojem technologicznym. W tym przypadku prawo jest wyjątkowo spóźnione. Dominuje cynizm, przekonanie, że jeśli będzie się miało odpowiednie narzędzia, rozwiąże się problem społeczny. Powinniśmy być szczególnie uważni w tej kwestii.
Powiedział pan też o odpowiedzialności platform za fake newsy. W pandemii zobaczyliśmy, że teorie antyszczepionkowe mają się dobrze, trafiają na podatny grunt. Przez lata były pielęgnowane w mrocznych zakamarkach internetu. Doszliśmy do punktu, w którym zwolennicy teorii spiskowych dyskutują ze zwolennikami faktów. Gdzie tu jest granica między fikcją, prawdą a koniecznością zaprzeczania teoriom, które 10 lat temu uznalibyśmy za bzdury. Gdzie tu jest miejsce na odpowiedzialność platform?
Problem jest bardzo złożony, ale spróbujmy uchwycić kilka istotnych wątków. Przede wszystkim warto pamiętać, że najbardziej zaawansowane prace nad rozwojem sztucznej inteligencji via uczenie maszynowe prowadzą Chiny. Nic więc dziwnego, że dzisiaj Facebook, Google czy inne firmy bronią się przed atakami argumentem, że jeśli zostaną osłabieni, to na ich miejsce wejdą korporacje chińskie. „Trwa wszak wyścig o dominację na świecie, obronę wolności, prawa” – to ich argument.
Bardziej jednak obawiam się tego, że cyfrowe superplatformy, takiej jak Alphabet - otrzymają mandat do definiowania tego, co dobre i złe, niż tego, że zaniechają zwalczania idiotyzmów. Boję się oddawania im większej władzy bardziej niż tego, że będą bierni. To paradoks.
Musimy znaleźć złoty środek: z jednej strony dawać im prawo do oceniania, co jest prawdą, a co fałszem; a jednocześnie przyglądać się uważnie temu, co robią. Na razie robili niewiele, Nadal wierzą w to, że wyszkolenie algorytmu rozwiąże na przykład problem fake newsów czy deepfake’ów. I jeśli nawet dziś zatrudniają tysiące młodych ludzi, aby usuwały te treści, to nie dlatego, że są społecznie odpowiedzialni, ale po to, by szkolić algorytmy. To konsekwencja dataizmu, solucjonizmu. Z ich perspektywy fejki, dezinformacja, czy bańki filtrujące to drobiazgi, naturalna konsekwencja działania i rozwoju. To konieczne do poniesienia - naturalnie występujących „strat ubocznych” w rozwoju, podążając za teorią Zygmunta Baumana.
Nauka algorytmów, machine learning, prace nad sztuczną inteligencją. Gdzie nas to zaprowadzi, czy my zdajemy sobie sprawę z konsekwencji? W tym przypadku pan profesor wyznaje technologiczny sceptyzm czy jednak optymizm?
Dostrzegam sprzeczne ze sobą nurty reprezentowane przez entuzjastów i pesymistów. Dzisiejsze dominujące narracje są dziełem optymistów, koniec końców niewielu jest sceptyków, choć są wpływowi w pewnych środowiskach decyzyjnych. Generalnie dostrzegam za mało myślenia krytycznego nie dlatego, że jestem zwolennikiem zahamowania rozwoju – wręcz przeciwnie. Stanęliśmy jednak w obliczu problemów filozoficznych, socjologicznych, politycznych tak bardzo oderwanych od dotychczasowych doświadczeń ludzkości, że uważam, że powinniśmy „przyhamować”, mieć chwilę na refleksję, a przede wszystkim na dyskusję, choć nie wierzę jednak, że to się wydarzy.
Widzę to w ten sposób: dzisiejsi 40- i 50-latkowie rządzący światem dysponują doświadczeniem i wiedzą zakorzenioną w edukacji sprzed 20 lub 30 lat. To przepaść, to inna epoka. To średniowiecze rozwoju informatyki i poznania człowieka poprzez rozwój cyfryzacji i informatyki. Mówiąc obrazowo, mamy obecnie do czynienia z rozwiązaniami przemysłu 4.0, a czytam o rozwiązaniach z 2038 roku – przemysłu 7.0, czyli na przykład związanych z czytaniem w myślach - prace w tym zakresie trwają, w Chinach, Japonii czy USA.
Proszę zatem zobaczyć, jakie mamy rozbieżności społeczne: połowa świata próbuje rozpaczliwie dobić do 2.0 i mieć połączenie z siecią, a część dyktująca kierunek rozwoju pracuje już nad rozwiązaniami z zakresu 6.0 czy 7.0.
Rośnie rozpiętość między tubylcami cyfrowymi, a wykluczonymi. W Polsce ciągle mamy tzw. białe plamy, miejsca, gdzie nie ma internetu. Z jednej strony ścierają się opinie, że internet zapewnia równość, bo dał możliwość wypowiedzi każdemu, w pewnym sensie stania się twórcą. Z drugiej strony mamy odcinających kupony z działalności w sieci. Internet będzie więc zapewniał równość, czy raczej pogłębiał te nierówności?
10-15 lat temu mówiliśmy o wykluczeniu cyfrowym. Dziś mamy do czynienia ze znacznie ważniejszymi zjawiskami niż nawet bycie podłączonym czy niepodłączonym do sieci. Kiedy słyszę, że internet prowadzi do demokratyzacji życia społecznego, to również pamiętam o tym, że bardzo wielu „krzyczy”, ale niewielu jest „słuchanych”. Pięknym mitem jest twierdzenie: „każdy może zostać influencerem”, bo znanych i popularnych jest niewielu, choć chcą być wszyscy. Uogólniając zatem, towarzyszący rozwojowi cyfrowego świata mit masowego społecznego uwspólnionego dobrostanu ma się dobrze, ale rośnie przepaść między liderami rozwoju, a jego zwykle biernymi, nieświadomymi uczestnikami.
Każdy chce nadawać, ale mało kto chce słuchać. Nasza uwaga i czas są ograniczone.
Oczywiście, mamy do czynienia z ekonomią uwagi. Dzisiaj młodzi ludzie są zanurzeni w cyberprzestrzeni. Co więcej, platformy poprzez bańki filtracyjne sprawiają, że nie tylko krzyczymy i nie słyszymy nikogo wokół, ale też otaczamy się ludźmi tylko podobnie do nas myślącymi. Algorytmizacja życia społecznego sprawia, że bogaci są coraz bogatsi, a biedni coraz biedniejsi.
Jeśli wierzymy, że media to IV władza, V władzą nazwiemy social media, to jakiej VI władzy się pan profesor spodziewa?
Na pewno będzie to kwestia monopolizacji rozwoju sztucznej inteligencji przez obecnie dominujące platformy cyfrowe. Prace nad AI odbywają się przede wszystkim w zarządzających nimi korporacjach: ich potencjał, a potencjał państw to mniej więcej jak 10:1. Masowe zastosowanie AI jeszcze zwiększy dystans między bogatymi, a biedniejszymi. Jednym słowem: zostawianie śladów cyfrowych + Internet Rzeczy będzie stanowiło paliwo dla algorytmów dominujących organizacji i jeszcze bardziej zwiększy dystans między tymi, którzy czerpią z tego korzyści i te procesy rozumieją, a pozostałymi. Nie widzę żadnej recepty, aby to zmienić, tak jak jestem pesymistą, gdy mowa, że użytkownik stanie się ponownie właścicielem swoich danych. Najlepszą receptą, by zmniejszyć dystans byłoby uwolnienie danych – czas powrotu do czerpania korzyści z informacji o samym sobie. Nie widzę jednak takiej możliwości. To koncepcja utopijna.
Weźmy pod uwagę fikcyjny scenariusz. Wyobraża pan sobie dzień bez internetu, pełny blackout?
Cyfrowy blackout jestem w stanie sobie wyobrazić, choć nie jeśli chodzi o skutki społeczne. Tu uwaga na marginesie: żyjemy w czasach, w których myślimy o antropocenie, kosztach klimatycznych, dewastacji Ziemi – ważnych tematach, które jednak zepchnęły do kąta inny istotny problem – refleksji nad konsekwencjami tego, że nasze życie społeczne przeniosło się do cyberprzestrzeni. Współczesna sieć z jej głównymi węzłami, takimi jak superplatformy, Facebooka, Alphabetu, Baidu i innych rozwijających się szybciej niż ludzkość jest w stanie nadążyć z regulacjami i refleksją nad społecznymi kosztami tego rozwoju. Po drodze platformom udało się uzyskać status niezbędnych i oczywistych dostawców dóbr społecznych, takich, jak i dostęp do wody i świeżego powietrza. Najwyższy czas na przemyślenie konsekwencji tego stanu rzeczy.
Dziękuję za rozmowę.
Dziękuję.
Chcemy być także bliżej Państwa – czytelników. Dlatego, jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected]. Przyszłość przynosi zmiany. Wprowadzamy je pod hasłem #CyberIsFuture.
Haertle: Każdego da się zhakować
Materiał sponsorowany