Reklama

Technologie

Jak chronić się przed deepfake? Oznaczać treści

Jak walczyć z deepfake'ami w sieci?
Jak walczyć z deepfake'ami w sieci?
Autor. Kayla Velasquez / Unsplash/ Domena publiczna

Napływ obrazów wygenerowanych przez sztuczną inteligencję w sieci bez ich oznaczania pozwala sądzić, że można walka z deepfake’ami będzie jeszcze trudniejsza niż do tej pory. Dodatkowo coraz lepsze algorytmy AI będą produkować doskonalsze formy wideo czy audio, przez co przed użytkownikami stoi nie lada wyzwanie. Jak nigdy wcześniej potrzebna jest edukacja.

Reklama

Fałszywe zdjęcie z „aresztowania” Donalda Trumpa czy papieża Franciszka w wielkiej, puchowej kurtce to tylko dwa z wielu przykładów deepfake’ów wygenerowanych i opublikowanych w mediach społecznościowych w ostatnich dniach.

Reklama

Czytaj też

Reklama

Problemem jest brak ich oznaczania, a wiralowe rozprzestrzenianie się tego typu materiałów uniemożliwia późniejsze dotarcie do osób, które w piątym czy dziesiątym udostępnionym wpisie na platformie społecznościowej nie przeczytają komunikatu, że to tylko „fałszywy obraz wygenerowany przez sztuczną inteligencję”, a uwierzą w to, co zobaczyły.

Dlatego jestem zwolenniczką oznaczania - wprost na fotografii/grafice czy to znakiem wodnym, czy podpisem - „obraz wygenerowany przez AI”. Inaczej tego typu treści – nawet jeśli przygotowane tylko „dla zabawy” – będą kolejnym źródłem dezinformacji.

Co nas czeka?

Podobnego zdania jest Hany Farid, profesor nauk komputerowych z Uniwersytetu w Kalifornii, który w tekście opublikowanym przez serwis Gizmodo zwraca uwagę, że m.in. ChatGPT i Dall-E powinny oznaczyć swoje wyniki znakiem wodnym.

Jak opisuje, już obecnie takie systemy sztucznej inteligencji, jakie mamy dostępne na rynku mogą - łącząc algorytmy uczenia maszynowego z miliardami fragmentów treści tworzonych przez ludzi – „zrobić wszystko, od stworzenia niesamowicie realistycznego obrazu na podstawie podpisu, zaprezentować przemówienie głosem prezydenta Joe Bidena, zastąpić podobiznę jednej osoby inną lub napisać spójny komentarz” - tylko na podstawie polecenia.

Zdaniem profesora, „przeciętny człowiek nie jest w stanie odróżnić obrazu prawdziwej osoby od osoby wygenerowanej przez sztuczną inteligencję”. Prawdopodobnie wkrótce doskonalszą formę przybiorą także fałszywyki audio oraz wideo, co sprawi, że w przestrzeni publicznej pojawi się jeszcze więcej materiałów, które trzeba będzie weryfikować. Oznacza to nie tylko więcej pracy dla fact-checkerów czy dziennikarzy, ale także dla samych użytkowników, którzy część odpowiedzialności za korzystanie z tych technologii muszą wziąć na siebie.

„W tym nowym świecie bardzo łatwo będzie wygenerować film, w którym dyrektor generalny mówi, że zyski jego firmy spadły o 20 proc., co może doprowadzić do miliardowej utraty udziałów w rynku lub stworzyć wideo przedstawiające światowego lidera grożącego operacjami wojskowymi, które mogłyby wywołać kryzys geopolityczny (...)” – wskazał profesor, ostrzegając w swoim tekście.

To także może oznaczać, że sieć zaleją nie tylko wytwory generatywnej sztucznej inteligencji. Działać to będzie w obie strony: realne treści będzie można łatwo odrzucić - np. wideo przedstawiające sytuację w której dochodzi do łamania praw człowieka uzna się za „fałszywe”. Już dzisiaj mamy do czynienia z sytuacją, kiedy politycy na każdy argument swojego przeciwnika używają określenia „fake news”, tylko dlatego, że nie zgadzają się z jego tezami.

Znak wodny, oznaczanie deepfake

Hany Farid, profesor nauk komputerowych, stwierdził również, że mamy do czynienia dopiero z początkiem postępów generatywnej sztucznej inteligencji i istnieją rozsądne metody oraz technologiczne możliwości, które złagodzą potencjalne nadużycia.

„Jako informatyk specjalizujący się w kryminalistyce obrazów uważam, że kluczową metodą jest znak wodny” – podkreślił profesor .

Jak przypomina - obecnie znak wodny stosują już choćby banki zdjęć - by chronić swoje prawa autorskie do fotografii objętych licencją. Przeciwników tego typu rozwiązania powinien przekonać argument, że istnieje już możliwość wprowadzenia znaku wodnego, który może być niezauważalny, a odporny będzie na proste manipulacje: jak kadrowanie, zmiana rozmiaru, dopasowanie kolorów i konwersja formatów cyfrowych.

„Systemy generatywnej sztucznej inteligencji mogą i, jak sądzę, powinny umieszczać znak wodny na całej swojej zawartości, co pozwala na łatwiejszą identyfikację i - w razie potrzeby - interwencję. Jeśli branża nie zrobi tego dobrowolnie, ustawodawcy mogą uchwalić przepisy w celu wyegzekwowania tej zasady. Ludzie pozbawieni skrupułów oczywiście nie będą przestrzegać tych norm. Ale jeśli główni >>gatekeeperzy<< online (jak np. Google, Amazon, Microsoft) będą egzekwować te zasady, zakazując takiego oprogramowania, szkody zostaną znacznie zmniejszone” – zauważył.

I choć nie ma złudzeń, że podpisywanie i oznaczanie treści stworzonych przez sztuczną inteligencję nie zapobiegnie wszelkim formom nadużyć, to w jakiś sposób zwiększy to ochronę użytkowników. Wraz z rozwojem AI (jak i innych technologii) trzeba będzie pracować nad narzędziami chroniącymi przed jej "ciemną stroną".

Czytaj też

Jak chronić się przed deepfake’ami?

O tym, jak rozpoznać obraz wygenerowany przez AI pisaliśmy w tym materiale z komentarzem eksperta Stowarzyszenia Demagog, najstarszej w Polsce organizacji fact-checkingowej.

Natomiast już w czwartek o 18.00 zapraszamy na pokój na Twitterze redakcji CyberDefence24.pl, gdzie będziemy o tym dyskutować.

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Komentarze

    Reklama