Reklama

Polityka i prawo

Gramatyka: Dostawcy porno mają brać odpowiedzialność za swoje treści

Wiceminister cyfryzacji Michał Gramatyka w czasie konferencji Cyber24 Day
Wiceminister cyfryzacji Michał Gramatyka w czasie konferencji Cyber24 Day
Autor. Ireneusz Dorożański/ CyberDefence24

Według naszej propozycji, każdy dostawca treści będzie musiał przeprowadzić analizę ryzyka. Dostawcy porno z automatu będą zobligowani, do wprowadzania technologii sprawdzającej pełnoletniość. Wierzę, że dzięki temu dzieci będą lepiej chronione - mówi wiceminister cyfryzacji Michał Gramatyka w rozmowie z CyberDefence24.pl.

Rząd chce walczyć z negatywnymi zjawiskami w sieci, takimi jak m.in. patostreaming, dostęp do pornografii przez najmłodszych czy treści o charakterze seksualnym z udziałem dzieci. Czasu na reakcję już nie ma, bo problem jest realny, a skutki tego typu materiałów na psychikę dziecka ogromne. Lista wyzwań jest długa, politycy zapowiadają kolejne działania, a resort cyfryzacji zapowiedział projekt w tej sprawie, którego założenia mamy poznać w połowie grudnia, w czasie konferencji Ogólnopolskiej Sieci Edukacyjnej. O podjęte kroki pytamy wiceministra cyfryzacji Michała Gramatykę.

Czytaj też

Czytaj też


Nikola Bochyńska, CyberDefence24.pl: W czasie sejmowej Komisji ds. Dzieci i Młodzieży przedstawił pan założenia projektu ustawy, która ma je chronić m.in. przed pornografią w sieci. Mówił pan między innymi o Europejskim Portfelu Tożsamości Cyfrowej, który umożliwia weryfikację wieku użytkownika.

Michał Gramatyka, wiceminister cyfryzacji: Uważam, że to dostawca treści pornograficznych powinien brać odpowiedzialność za kierowanie swoich materiałów wyłącznie do ludzi dorosłych. Jak to zrobi? Zależy to tylko od niego. Ma być po prostu skuteczny.

Podczas komisji wspomniałem o eIDAS-2 - Europejskim Portfelu Tożsamości Cyfrowej, to koncepcja umożliwiająca prezentację dowolnych atrybutów dokumentów – w tym na przykład wyłącznie potwierdzenia pełnoletniości.

W połowie grudnia na konferencji Ogólnopolskiej Sieci Edukacyjnej chcę przedstawić istotne elementy ustawy o ochronie dzieci przed dostępem do nielegalnych treści.

Czym się różni ta koncepcja od pomysłu poprzedniego rządu, który nie został pewnie przyjęty - z jednej strony przez krytykę, a dwa – przez kryterium czasu końca kadencji?

Poprzedni rząd chciał nakładać nowe obowiązki na dostawców internetu. Na wniosek rodzica mieli oni blokować pornograficzne strony. W dodatku sami mieli ustalać, co jest, a co nie jest pornografią. To był zły pomysł. Oczywiście jeszcze gorszym jest sytuacja dzisiejsza, polegająca na samodeklaracji – mam 18 lat, wchodzę dalej i mogę oglądać wszystko.

Według naszej propozycji, każdy dostawca treści będzie musiał przeprowadzić analizę ryzyka. Dostawcy porno z automatu będą zobligowani, do wprowadzania technologii sprawdzającej pełnoletniość. Wierzę, że dzięki temu dzieci będą lepiej chronione.

Reklama

Weryfikacja wieku na platformach nie działa

Co z platformami społecznościowymi? Dzieci same zaznaczają, że ukończyły 13. rok życia, a de facto mają 9-10 lat. W mediach społecznościowych też nie brakuje tego typu treści.

Duże platformy społecznościowe dość dobrze sobie z tym radzą. Ostatnio miałem okazję oglądać, jak YouTube identyfikuje nieletnich. Rzeczywiście ma dwa etapy: poziom deklaracji użytkownika ale też algorytm, która sprawdza czy deklaracja nie jest oczywiście fałszywa. Jeśli technologia wykaże, że zadeklarowany dorosły jest w rzeczywistości dzieckiem, to takie konta są raportowane. Sporo pracy wykonuje także Meta, wprowadziła m. in. „konta dla nastolatków” na Instagramie i Facebooku.

Widziałam materiał, kiedy dziennikarz TVN pytał w szkole dzieci 9-10-letnie czy korzystają z mediów społecznościowych. Same przyznawały przed kamerą, że zaznaczają, iż mają 13 lat.

Dziennikarze uwielbiają sensacyjne materiały. Również w CyberDefence24 takie materiały się świetnie klikają.

To nie jest sensacyjny materiał, a fakt – dzieci korzystają z platform mediów społecznościowych.

Pełna zgoda. Dlatego też robię to, na co mam wpływ. Pracuję nad naszą ustawą i wierzę, że możliwa jest lepsza ochrona dzieci. Z jednej strony poprzez DSA, czyli regulację przewidującą mechanizmy kontroli platform społecznościowych. Z drugiej strony „ustawa antypornograficzna” dotycząca wszystkich dostawców takich usług.

Jeżeli wdroży się te dwie grupy rozwiązań prawnych, to sytuacja powinna się poprawić. Jest mnóstwo dzieciaków, które zaznaczają, że są pełnoletnie, a w rzeczywistości nie są. Ostatnio sprawdzałem to dość daleko od mediów społecznościowych – w automacie sprzedającym energetyki w… Żabce Nano. Ich technologia też jakoś działa i też bywa zawodna.

Reklama

Pornografia i patostreaming

Mam przykład z dzisiaj (wywiad przeprowadzaliśmy w ubiegłym tygodniu - red.), chociaż zaraz pan pewnie powie, że szukam sensacji. Pani Kinga Szostko, działaczka społeczna z fundacji Prospołeczna opublikowała materiały, które pojawiają się na TikToku. Tam są np. treści, które można uznać za twarde porno, a pojawiają się dzieciom w filtrach. Gdzie jest w takim razie ta skuteczna weryfikacja?

To akurat nie sensacja tylko realny problem. Pani Kinga dotarła z nim też do mnie. Nadałem sprawie bieg, poinformowałem DyżurNet w NASK i samego TikToka.

Prawdopodobnie jakiemuś autorowi TikToka udało się oszukać algorytm, który powinien filtrować tego typu treści na poziomie samej platformy. To jest ich wewnętrzny problem i muszą brać odpowiedzialność, aby takich treści dzieciom nie prezentować. My staramy się tworzyć rozwiązania prawne, które spowodują, że dzieciaki w internecie będą bardziej bezpieczne niż są teraz.

Dajemy też możliwość każdemu zgłaszania takich treści – niedawno w aplikacji mObywatel udostępniliśmy nową opcję – każdy może wpisać adres strony, która zawiera treści o charakterze seksualnym, przedstawiającym dzieci. Te zgłoszenia trafiają do Dyżurnet.pl, działającym w ramach NASK.

Czy w tej ustawie znajdzie się nie tylko problem ochrony przed treściami pornograficznymi, ale też problem patostreamingu, czy zostanie on stricte określony?

W ustawie nie definiujemy pornografii ani patostreamingu, posługujemy się przepisami, które określają poziom szkodliwości treści wobec dzieci.

Pytałam o treści nielegalne, treści szkodliwe w ustawie. Chodzi mi o ścisłą definicję, bo to bardzo szerokie pojęcie. Czy możemy pod to podciągnąć także transmisję gali freak-fightowych? O tym też była dyskusja w Sejmie. Czy ta ustawa obejmie tego typu treści w internecie, czy będzie można uznać to za materiały nielegalne?

Proponuję z tym jeszcze chwilkę poczekać. To nie jest przypadek, że chcę pokazać projekt w połowie grudnia na konferencji OSE. Wtedy będziemy gotowi, na razie szlifuję ostateczne propozycje przepisów. Filozofia ustawy jest podobna do rozwiązań angielskich i australijskich. Czerpiemy też z amerykańskiego Kids Online Safety Act. Za wcześnie na rozmowę o konkretnych przepisach.

Czytaj też

Reklama

Walka z hejtem ślepym pozwem

Rozumiem, a jeśli chodzi o ustawę tzw. antyhejterską i ślepy pozew? W Sejmie były podnoszone różne argumenty w toku dyskusji. Jeden - w zasadzie oczywisty - o chęci wprowadzenia cenzury w internecie, do czego raczej nie ma co się odnosić. Pojawił się też argument dotyczący niewydolności polskich sądów. Jeśli masowo zaczną wpływać wnioski o sprawdzenie danych anonimowego hejtera, to sądy mogą zostać zalane kolejnymi sprawami. Jak pan na ten argument odpowie?

Zapewne tak się stanie, sądy zostaną zarzucone takimi wnioskami. Chyba się zgodzimy, że to ważny i istotny problem w polskim internecie, więc myślę, że zmartwieniem Ministerstwa Sprawiedliwości będzie stworzenie takiej organizacji sądów, żeby poradziły sobie przynajmniej z częścią z tych spraw. Tak jak dzisiaj są „zakorkowane”, będą mogły się „odkorkować”. Minister Myrcha brał udział w dyskusji i miał dość pozytywne podejście do naszych rozwiązań, a jednocześnie mówił, że nie jest to jedyna inicjatywa, która zmierza do udrożnienia pracy sądów.
wiceminister cyfryzacji Michał Gramatyka

Spotkałam się też z argumentem, że już dzisiaj jest problem z niemożnością namierzenia anonimowego hejtera, bądź też znam przykłady osób, które same się tego podjęły i mimo że przyniosły policji jego dane, to sprawa została umorzona ze względu na niemożność wykrycia sprawcy. Ta ustawa w jakiś sposób to zmieni?

Policja dobrze sobie radzi z ustalaniem tożsamości sprawców przestępstw dokonywanych na platformach społecznościowych. Social media mają obowiązek przekazywania danych wszelkiej maści oszustów czy autorów gróźb karalnych, od czasu do czasu media donoszą o skazaniu takiego czy innego hejtera.

Mamy więc policję, a z drugiej strony – platformy, które muszą dysponować informacjami o swoich użytkownikach. Liczę na to, że będą takie informacje przekazywać i koniec.

Jeśli mówimy o X, uważa pan, że to też się będzie skutecznie odbywało?

X w imię „wolności słowa” nie dostosowuje się do żadnych regulacji. Moderacja nie istnieje, a sam portal jest oceanem hejtu i dezinformacji. To moim zdaniem jest problem wykraczający poza granice naszego kraju, związany z dostawcą tej usługi.

Jeśli założymy, że chcemy ścigać anonimowego hejtera już po przyjęciu wskazanej ustawy, to pana zdaniem warto odpuścić sobie X, a skupić się np. jedynie na Facebooku?

Mam inne podejście: platformy działające w określonych krajach muszą honorować prawo tego kraju. W momencie, kiedy w Polsce pojawią się zobowiązania wynikające z DSA, a potem pojawi się też nasza ustawa - czy to antyhejterska, czy antypornograficzna - moim zdaniem również X będzie miał obowiązek honorowania polskich regulacji. Podobnie zresztą jak się to stało we wrześniu w Brazylii.

Dziękuję za rozmowę.

Czytaj też

Reklama

Komentarze

    Reklama