W ubiegłym tygodniu Parlament Europejski przegłosował bardzo ważne regulacje rynku cyfrowego, które kryją się pod enigmatycznymi nazwami: Akt o usługach cyfrowych (DSA – Digital Services Act) oraz Akt o rynkach cyfrowych (DMA – Digital Market Act). Niosą z sobą szereg zmian m.in. dla platform społecznościowych, ale przede wszystkim: dla użytkowników. Przedstawiamy, najważniejsze założenia i tłumaczymy, dlaczego to jest ważne.
Krótko mówiąc, nowe przepisy zakładają ostrzejsze regulacje wobec Big Techów. Oznacza to wprowadzenie zasad zapewniających większą odpowiedzialność platform cyfrowych wobec ich użytkowników i wymaga od takich firm, jak Google, Amazon, Facebook (Meta) czy Apple szeregu zmian.
W założeniu – z korzyścią dla użytkowników, którzy mają być lepiej chronieni. Będą mogli domagać się także swoich praw i odwoływać się od decyzji plartform, co obecnie było znacznie utrudnione, żeby nie napisać, że... było fikcją.
W tekście skupimy się na Digital Services Act (DSA), który w większym stopniu dotyczy użytkowników i przekłada się na nasze funkcjonowanie w sieci. Zawiera w praktyce: mechanizm umożliwiający łatwe oznaczanie nielegalnych i szkodliwych treści oraz umożliwiający platformom współpracę z tak zwanymi „zaufanymi podmiotami zgłaszającymi” czy nowe obowiązki dotyczące identyfikowania użytkowników biznesowych na internetowych platformach handlowych.
Co jednak realnie zmieni się dla użytkowników? O to zapytaliśmy Dorotę Głowacką, prawniczkę z Fundacji Panoptykon. „DSA to regulacja, która wzmocni prawa użytkowników w sieci. Nie tylko w odniesieniu do cybergigantów, ale także do mniejszych platform i innych dostawców usług pośrednich. Największe, najbardziej odczuwalne dla użytkowników zmiany będą dotyczyły jednak właśnie największych platform” – wskazuje w rozmowie z CyberDefence24.pl.
Czytaj też
Najważniejsze zmiany. Po pierwsze: transparentna moderacja treści
Dorota Głowacka zaznacza, że realną zmianą, jaką odczuje użytkownik i uprawnienia, które rzeczywiście poprawią jego pozycję względem platform będą najbardziej zauważalne w odniesieniu do moderacji treści. „To tam przede wszystkim zostały wytworzone dodatkowe procedury odwoławcze. To możliwość odwołania się od decyzji przez użytkowników, którym zależy na tym, aby usunąć jakąś treść, bo uznają ją za bezprawną. A także tych, którym platforma usunęła konto i mają poczucie, że ta decyzja była nieuzasadniona. Dostaną nowe narzędzia, które spowodują, że będzie łatwiej kwestionować te decyzje. Dzisiaj te możliwości są mocno ograniczone” – uważa.
Jej zdaniem, w tym obszarze użytkownicy odczują realne zmiany na lepsze. „Przede wszystkim przepisy narzucają obowiązek dużo większej transparentności w zakresie kryteriów i procedur, jakie stosują platformy – nie tylko te największe - w sprawie podejmowania decyzji moderacyjnych. Dzisiaj nie ma regulacji w tym zakresie i wiele zależało od standardów poszczególnych platform. Teraz DSA jasno narzuca, jak dana platforma powinna komunikować się ze swoimi użytkownikami w zakresie przekazywania informacji, co jest dopuszczalne, a co nie, jak wyglądają procedury kwestionowania decyzji” – zaznacza.
Publikowanie regulaminów i standardów społeczności będzie także uregulowane prawnie. „Muszą istnieć, i w przypadku największych platform być dostępne dla użytkowników w ich własnym języku. Zatem obowiązkowo będą musiały istnieć także w języku polskim. Regulaminy - przynajmniej w teorii - nie będą mogły być dowolnie kształtowane przez platformę np. w taki sposób, który dyskryminowałby mniejszości seksualne czy nadmiernie ingereował w wolność słowa. Platforma zachowa pewnien margines swobody w zakresie tego, co jest dopuszczalne, a co nie, ale ta swoboda nie będzie nieograniczona” – słyszymy od Doroty Głowackiej.
DSA zwiększa też transparentność dla indywidualnych użytowników: kiedy platforma podejmuje jakąkolwiek decyzję moderacyjną, musi wprost poinformować użytkownika o jej powodach oraz o tym, jak można się od niej odwołać. To dotyczy zarówno decyzji o usunięciu treści, jak i decyzji, które są odpowiedzią na zgłoszenia nielegalnych treści. Platformy będą miały określony czas na odpowiedź. „Do tej pory już na etapie uzasadniania decyzji platformy istniał problem: użytkownik dostaje bardzo np. lakoniczną informację, że „naruszył standardy społeczności”. Przy czym nie zawsze towarzyszy temu komunikat, o jakie dokładnie standardy chodzi czy które konkretnie wpisy naruszały wspomniane zasady. Najczęściej nie ma nawet możliwości technicznych, aby przedstawić swoje kontrargumenty. Co zresztą trudno zrobić w odniesieniu do zarzutów, których do końca się nie rozumie” – tłumaczy nam prawniczka Fundacji Panoptykon.
Dalej objaśnia, że po wejściu w życie DSA tego typu decyzje mają być jasno uzasadniane, a użytkownicy mają być informowani o drogach odwoławczych, jakie im przysługują. „Ponadto, ostateczna decyzja nie będzie mogła być podejmowana przez sam algorytm - człowiek będzie musiał brać udział w tym procesie. Co istotne, użytkownik, który nie będzie zadowolony z rozstrzygnięcia platformy będzie mógł odwołać się do zewnętrznego organu arbitrażowego. To chyba najważniejsza zmiana. Dotyczy to użytkowników, którzy zgłosili istnienie bezprawnej treści, jak i tych, którym usunięto konto. Procedura ma działać szybko i być bezpłatna dla użytkowników” – podsumowuje ten aspekt.
Po drugie: Transparentność systemów rekomendacyjnych
Poza moderacją treści, istotne jest także działanie systemów rekomendacyjnych. Krótko mówiąc: to, co do tej pory widzieliśmy na naszych „tablicach” w serwisach społecznościowych nie było przypadkiem, ale nie mieliśmy ani żadnego wpływu, ani możliwości pozyskania żadnej wiedzy, dlaczego dana treść jest mi prezentowana, a inna nie. Teraz ma się to zmienić. „Użytkownicy będą mogli teraz dowiedzieć się o wiele więcej o stojącej za nimi logice. Czyli, krótko mówiąc, o tym dlaczego w moim newsfeedzie ląduje określona treść: czy to reklama, czy treść organiczna, która dzisiaj też – za pomocą algorytmów rekomendacyjnych - jest personalizowana na podstawie analizy danych osobowych. Do tej pory platformy bardzo oszczędnie dzieliły się tymi informacjami z użytkownikami. Teraz będziemy mogli dowiedzieć się więcej” – mówi nam Dorota Głowacka.
Dodatkowo użytkownicy zyskają nieco większą kontrolę nad własnym newsfeedem, ponieważ każda z największych platform będzie miała obowiązek udostępnić przynajmniej jeden system rekomendacyjny, który nie jest oparty na profilowaniu. „Użytkownik będzie mógł wybrać czy korzysta z domyślnego systemu rekomendacji tak, jak do tej pory, czy chce zrezygnować i wybrać nieprofilowaną alternatywę. Być może w praktyce będzie to po prostu chronologiczny newsfeed. To krok w dobrą stronę, ale niekoniecznie będzie to jednak system promujący np. rzetelne czy wiarygodne informacje. Dziś, jak wiemy z badań, systemy rekomendacyjnie działają w sposób, który sprawia, że treści dezinformacyjne osiągają większe zasięgi niż jakościowe newsy. Możliwość wybrania alternatywnego systemu, który nie jest oparty na profiowaniu, to jednak za mało, żeby ten problem rozwiązać” – podkreśla prawniczka.
Po trzecie: Personalizacja reklamy
Jej zdaniem kolejny istotny krok, to dodatkowa ochrona dla użytkowników w kontekście reklamy, polegająca na tym, że platforma nie będzie mogła wykorzystywać w procesie personalizowania reklamy danych wrażliwych lub danych dzieci. „Teoretycznie ma to służyć wyeliminowaniu najbardziej inwazyjnych praktyk reklamowych, stosowanych przez platformy. O tym, jakie praktyki mają dziś negatywne skutki, dowiadujemy się dzięki różnym badaniom i eksperymentom, które wykazywały, że użytkownicy dostawali np. reklamę odnoszącą się do ich wrażliwych sfer, takich jak stan zdrowia, albo reklamy, które miały dyskryminujący charakter np. z uwagi na płeć czy kolor skóry. Chodzi o to, aby takie sytuacje się nie zdarzały” – stwierdza Głowacka w rozmowie z CyberDefence24.pl.
Po czwarte: walka z dezinformacją
Jak informowaliśmy na naszych łamach, częścią szerszego pakietu regulacji w ramach DSA jest także unijny Kodeks Dobrych Praktyk w zakresie walki z dezinformacją. Zakłada on lepszą ochronę użytkowników przed fałszywymi informacjami i wymaga podjęcia od platform internetowych szeregu działań, by realnie walczyć z fake newsami.
Dorota Głowacka przypomina, że DSA wprowadza również obowiązek dokonywania oceny ryzyka, np. w zakresie tego, w jaki sposób działają algorytmy promujące określone treści. „Między innymi pod kątem dezinformacji – platformy będą musiały dokonywać oceny, która będzie także podlegała zewnętrznemu audytowi. Jeśli z oceny ryzyka będzie wynikało, że np. system rekomendacyjny powoduje określone szkody w postaci szerokiego premiowania treści, które stanowią dezinformację, to platforma powinna podjąć działania naprawcze, aby to zmienić. Także badacze i organizacje non-profit będą mogły zażądać dostępu do wskazanych ocen ryzyka, co pomoże im w identyfikowaniu i nagłaśnianiu zagrożeń związanych z funkcjonowaniem mediów społecznościowych. Na poziomie systemowym ten mechanizm ma chyba największe szanse z rozwiązań zawartych w DSA, aby przyczynić się do ograniczenia zasięgów dezinformacji” – ocenia.
Więcej o Unijnym Kodeksie Dobrych Praktyk ws. walki z dezinformacją i jego założeniach pisaliśmy w tym tekście.
Słabości regulacji
Czy DSA jest „idealną” regulacją? W środowiskach prawniczych i wśród NGO’sów już przed jego przyjęciem pojawiały się głosy, że nie wszystkie zapisy rozwiązują najważniejsze problemy i nie wszystkie udało się przeforsować.
Fundacja Panoptykon ma nie być do końca usatysfakcjonowana ograniczeniami dla personalizacji reklam w DSA, które – zdaniem organizacji – „niekoniecznie w praktyce przyniosą oczekiwany efekt, biorąc pod uwagę sposób, w jaki działają algorytmy systemów reklamowych”.
„Zamiast zakazu wykorzystywania danych wrażliwych do celów reklamowych, który ciężko będzie wyegzekwować, lepszym rozwiązaniem byłoby zakazanie wykorzystania tzw. danych wywnioskowanych, które platformy przetwarzają często bez pełnej świadomości i kontroli użytkownika. Personalizacja reklam byłaby nadal możliwa, ale tylko na bazie informacji, które użytkownik w pełni świadomie i wprost przekazuje platformie. Żałujemy, że nie udało się do tego przekonać unijnych decydentów” – słyszymy.
Straconą szansą ma być także brak zapewnienia użytkownikom większej kontroli nad wspomnianymi systemami rekomendacyjnymi. „Możliwość wyboru jednego systemu rekomendacyjnego, nieopartego na profilowaniu, który największe platformy będą miały obowiązek zapewnić - to za mało. Szkoda, że DSA nie stworzyło możliwości dla rozwoju zewnętrznych systemów rekomendacyjnych, tworzonych np. przez zaufane organizacje non-profit, które oferowałyby realne alternatywy działające według wybranych przez użytkownika parametrów” – dodaje Dorota Głowacka.
Na koniec zaznacza, że dla Panoptykonu ważnym celem w DSA było zapewnienie podstawowego poziomu ochrony dla każdego użytkownika: „Chodzi o to, aby użytkownik nie musiał nic robić, niczego zmieniać, a jednocześnie był domyślnie chroniony przynajmniej przed najbardziej inwazyjnymi praktykami. Stąd cieszą nas zakazy dotyczące wykorzystania określonych danych w celach reklamowych - nawet jeśli mamy obawy, że mogą w pełni nie osiągnąć zamierzonego skutku”.
Jak dodaje, w DSA nie ma jednak rozwiązań, które domyślnie ochronią użytkownika np. przed toksycznym newsfeedem. „Nawet wspomniany jeden obowiązkowy nieprofilowany system rekomendacyjny to coś, co użytkownik będzie musiał proaktywnie wybrać, a wiemy, że większość osób poprzestaje na domyślnych ustawieniach. Mimo wszystko wierzę, że dzięki DSA użytkownicy będą chronieni w większym stopniu, niż dziś. Na koniec zachęcam jednak, aby poszerzać swoją świadomość w zakresie mechanizmów funkcjonowania największym platform – mają dziś olbrzymi wpływ na obraz świata, który widzimy, wybory, które podejmujemy i szezrzej - na naszą rzeczywistość” – podsumowuje.
Regulacje to jedno, ich wdrożenie – drugie. Wiele będzie wciąż zależało od polityków, którzy będą egzekwowali przyjęte zapisy; jeszcze więcej: od platform, które do tej pory raczej symulowały podjęcie określonych działań; a na koniec: od użytkownika, który – bez względu na przepisy – musi pogłębiać poziom swojej cyfrowej świadomości.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].