Reklama
  • WIADOMOŚCI

Deepfake to zmora internetu. Jak z nimi walczyć?

Problem deepfake«ów w sieci robi się coraz poważniejszy. Wraz z rozwojem sztucznej inteligencji, rozpoznanie fałszywych nagrań staje się coraz trudniejsze, na czym korzystają m.in. oszuści. Narzędzia AI służą także do tworzenia materiałów pornograficznych z wizerunkiem prawdziwych osób, co pokazał wstrząsający przykład jednej z uczennic. Jak można walczyć z problemem skoro platformy nie są tym zainteresowane?

deepfake
Deepfake to zjawisko, które staje się prawdziwym wyzwaniem, również z perspektywy państwa i demokracji.
Autor. Canva
  • W ostatnich tygodniach głośno zrobiło się o sprawie uczennicy z podwarszawskiej szkoły, której wizerunek koledzy wykorzystali do stworzenia materiału pornograficznego.
  • Rafał Brzoska, CEO InPost - który ma doświadczenie w walce z tego typu treściami - wskazał, że jeżeli nic nie zostanie zrobione, to przy najbliższych wyborach parlamentarnych będzie zagrożona nie tylko demokracja.
  • Czy obecne przepisy są wystarczające? Zastępca Komendanta Centralnego Biura Zwalczania Cyberprzestępczości insp. Michał Pudło wskazywał przykłady, które nie są jasne w przypadku materiałów deepnude.

Od kilku lat internauci spotykają się z fałszywymi treściami wygenerowanymi przez sztuczną inteligencję. Pojawiają się materiały mające wywołać śmiech, lecz równie wiele jest filmów i grafik, których autorami są przestępcy.

Na naszych łamach od lat informujemy o przypadkach wykorzystania wizerunku znanych osób do promowania przekrętów. W zmanipulowanych filmach pojawiały się postacie ze wszystkich stron sceny politycznej, a także przedstawiciele biznesu: od prezydenta Karola Nawrockiego, przez prezesów państwowych i prywatnych spółek, po ministrów czy lekarzy.

Deepfake to zagrożenie nie tylko dla Polski

Kwestię deepfake«ów poruszono na Kongresie Ochrony Danych i Nowych Technologii podczas panelu prowadzonego przez Prezesa Urzędu Ochrony Danych Osobowych Mirosława Wróblewskiego. Jedną z osób dotkniętych tym problemem jest Rafał Brzoska, założyciel i prezes InPost.

Podczas Kongresu Ochrony Danych i Nowych Technologii poruszono temat deepfake'ów. Co można zrobić, aby z nimi skutecznie walczyć? Czy konieczna jest zmiana prawa?
Podczas Kongresu Ochrony Danych i Nowych Technologii poruszono temat deepfake'ów. Co można zrobić, aby z nimi skutecznie walczyć? Czy konieczna jest zmiana prawa?
Autor. CyberDefence24

W jego opinii, przestępcami są nie tylko osoby tworzące te materiały, lecz także Meta – właściciel Facebooka. Cała sytuacja jest z kolei niepokojąca w kontekście przyszłych wyborów parlamentarnych.

Ja rozumiem, że koncern Meta zarabia na reklamach. Mówimy o tym, że wizerunek osób publicznych jest wykorzystywany celem osiągnięcia korzyści, ale mam wrażenie, iż my patrzymy na to z bardzo zwężonej perspektywy. Wybory w 2027 roku będą w dużej części pod wpływem fałszywych przekazów rozpowszechnianych przez naszych wrogów. Mamy do czynienia z gigantycznym zagrożeniem; jeżeli dzisiaj nie powiemy mu stop, to mówimy o zagrożeniu egzystencji dla demokracji – i nie tylko Polski.
Rafał Brzoska, założyciel i CEO InPost

Według prezesa InPost, trzeba doprowadzić do tego, aby deepfake’i nie mogły bezkarnie pojawiać się w sieci. Wspomniał przy tym o projekcie dotyczącym mowy nienawiści, który miałby wymagać weryfikacji danych osobowych do publikowania treści w Internecie.

„Serdecznie państwa namawiam do tego, by ta dyskusja przestała być dyskusją akademicką, tylko zaczęła mieć normalne, realne ramy prawne. Ja deklaruję ze swojej strony jako były pełnomocnik ds. zespołu SprawdzaMY w zakresie deregulacji, by ten temat jak najszybciej znalazł się na agendzie. Nie wyobrażam sobie, że jakakolwiek siła polityczna w tym kraju będzie przeciwna takim rozwiązaniom” – podkreślił Brzoska.

Reklama

Kryzys zaufania do systemu

Powstaje jednak pytanie, czy dotkliwsza jest treść fałszywych reklam, czy długotrwała utrata zaufania społeczeństwa?

Zdaniem dra Macieja Tąkiela, Dyrektora Innowacji i Rozwoju Biznesu w kancelarii Greenberg Traurig, w pewnym horyzoncie czasowym dochodzi do erozji zaufania do osób publicznych, zarówno w przypadku biznesu, jak i polityków.

To już nie jest indywidualny problem, tylko ryzyko systemowe. Docelowo wygląda to tak, że politykowi będzie łatwiej powiedzieć, że jest to fake niż przeprosić swój elektorat. Widzimy, jaka jest polaryzacja na naszej scenie politycznej. Niestety, twardy elektorat od razu przyjmuje, że to jest jakiś fake news, zmanipulowana wypowiedź i nie przejmuje tego do wiadomości. Tutaj ten długofalowy efekt jest moim zdaniem bardzo dużym kryzysem zaufania do systemu.
dr Maciej Tąkiel, Dyrektor Innowacji i Rozwoju Biznesu, kancelaria Greenberg Traurig

„Ofiara musi każdorazowo inicjować procedurę”

Wątpliwości dotyczące powstawania deepfake«ów rozciągają się w taki sposób również na mechanizmy prawne. Czy są one wystarczające?

Jak zauważyła dr Karolina Mania z Katedry Zarządzania Strategicznego Uniwersytetu Jagiellońskiego, sprawy związane z fałszywymi treściami wygenerowanymi przez AI są traktowane wielopoziomowo w Unii Europejskiej – inaczej niż w Stanach Zjednoczonych.

Wskazała przy tym na Akt o sztucznej inteligencji i dyrektywę o zwalczaniu przemocy wobec kobiet oraz domowej. Dodatkowo, zauważyła problemy związane z mechanizmem zgłoszeń przedstawionym w Akcie o usługach cyfrowych.

DSA wskazała „bezwzględną zwłokę", która jest niedookreślonym pojęciem. (...) Po pierwsze, brak określenia terminowości, kiedy platforma ma zareagować. Dwa, użytkownik musi sam zainicjować ten proces – nie platforma. Trzy, każde zgłoszenie dotyczy osobnego linku, osobnego posta. W związku z tym autor naruszenia doda przygotowany fałszywy materiał na 44 innych portalach zanim ta procedura dokona usunięcia. Stamtąd będą dalsze powielenia i replikacja treści. Ofiara niestety naraża się na to, że musi każdorazowo zainicjować tę procedurę.
dr Karolina Mania, Katedra Zarządzania Strategicznego, Uniwersytet Jagielloński
Reklama

Przepisy powinny być jednoznaczne

Zapytany o skuteczność obecnie obowiązujących przepisów dotyczących m.in. podszywania się pod inną osobę, Zastępca Komendanta Centralnego Biura Zwalczania Cyberprzestępczości insp. Michał Pudło odpowiedział, że kwalifikacje prawne nie są zbyt jasne. Odniósł się przy tym do materiałów z wykorzystywaniem seksualnym małoletnich, przytaczając przepis mówiący o udziale takiej osoby.

Mieliśmy zdjęcie dziewczynki publicznie dostępne w internecie i ktoś dorobił do tego treść pornograficzną przy pomocy narzędzi sztucznej inteligencji. I teraz pytanie: czy to jest z udziałem, czy bez udziału? Orzecznictwo jest różne. Mamy artykuł 4b (o treściach pornograficznych z wizerunkiem małoletniego uczestniczącego w czynności seksualnej – red.) – i teraz: czy nagość była czynnością seksualną? Też dwuznaczność. A co z dorosłymi? Jak tu zareagować?
insp. Michał Pudło, Zastępca Komendanta Centralnego Biura Zwalczania Cyberprzestępczości

Zastępca Komendanta CBZC zwrócił również uwagę na fałszywy profil Ministerstwa Spraw Wewnętrznych i Administracji, który w 2025 roku funkcjonował przez jakiś czas na Facebooku. Przez większość czasu umieszczano na nim takie same treści, jak na prawdziwych stronach resortu, zaś pewnego dnia pojawił się na nim materiał antyimigrancki, który szybko się rozpowszechnił.

„Zwracaliśmy się do Mety - my jako Centralne Biuro Zwalczania Cyberprzestępczości - aby to usunęli. Trwało to 12 godzin i to była ich dobra chęć, żeby to usunąć” – wyjaśnił insp. Pudło.

Nikt nie poradzi sobie ze skalą?

Głos w sprawie istniejących mechanizmów administracyjnoprawnych oraz karnych w odniesieniu do ofiar przemocy cyfrowej zabrała również Katarzyna Staciwa, Koordynatorka ds. badań i rozwoju w Państwowej Komisji ds. Przeciwdziałania Wykorzystaniu Seksualnemu Małoletnich.

Zauważyła, że w przypadku dzieci deepfake’i mają wiele postaci: od żartów po materiały podrabiane przez dorosłych zainteresowanych seksualnie nieletnimi.

Jedno z publicznie dostępnych narzędzi (sztucznej inteligencji – red.) ma ponad 60 scenariuszy, możliwości o kontekście seksualnym. Jedno zdjęcie można przerobić w taki sposób, że będzie to już ośmiosekundowy film. To jest skala rażenia, z którą po prostu chyba nikt sobie nie poradzi.
Katarzyna Staciwa, Koordynatorka ds. badań i rozwoju w Państwowej Komisji ds. Przeciwdziałania Wykorzystaniu Seksualnemu Małoletnich

Członkini PKDP wyjaśniła również, że ofiarą może być ktoś, kto nie ma sprawczości. Sedno działań leży z kolei w tym, aby te osoby, których wizerunek wykorzystano bez ich zgody, otrzymały możliwość reakcji. Wskazała przy tym na Akt o usługach cyfrowych oraz dyrektywę CSAM, nazwaną także Chat Control.

„W Europie nie ma systemu, który by zobowiązywał dostawców poszczególnych produktów i usług internetowych do raportowania przypadków ujawnienia treści mogącej przedstawiać wykorzystanie seksualnego dziecka. Taki system istnieje w Stanach Zjednoczonych - tam podmioty z Doliny Krzemowej muszą automatycznie raportować każdy taki przypadek, których jest 30 milionów, w większości spoza USA. To nas powinno bardzo mocno zastanowić” – dodała Staciwa.

Reklama
CyberDefence24.pl - Digital EU Ambassador

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Cyfrowy Senior. Jak walczy się z oszustami?