Reklama

Technologie

Deepfake i sztuczna inteligencja. Jak rozpoznać obraz wygenerowany przez AI?

Deepfake wygenerowany przy pomocy sztucznej inteligencji potrafi być coraz bardziej realistyczny
Deepfake wygenerowany przy pomocy sztucznej inteligencji potrafi być coraz bardziej realistyczny
Autor. Twitter, Eliot Higgins / modyfikacja: CyberDefence24

Do tej pory o deepfake, czyli fałszywych obrazach wygenerowanych przy pomocy sztucznej inteligencji, mówiło się niewiele. Były niedoskonałe i dość łatwo można było je odróżnić gołym okiem od dzieła człowieka . Problem w tym, że ogólnodostępne narzędzia AI rozwijają się błyskawicznie, a jak pokazuje ostatnia wersja programu Midjourney – deepfake staje się kolejnym, poważnym zagrożeniem.

Reklama

O deepfake’ach pisaliśmy wielokrotnie na łamach CyberDefence24.pl. Przypomnijmy, że to inaczej fałszywe wideo, nazwa to kombinacja słów z ang. deep learning - głębokie uczenie maszynowe i fake – fałsz. Opiera się na nowoczesnym sposobie obróbki nagrań w oparciu o sztuczną inteligencję. AI może sprawić, że sfabrykowany obraz powstanie na bazie zdjęć, wideo i dźwięku, a za pomocą programu można podszyć się pod właściwie dowolną postać – podłożyć jej głos i w ten sposób celowo zmanipulować materiał.

Reklama

Oczywiście może być tworzone dla zabawy czy w celach edukacyjnych, ale może również stanowić poważne zagrożenie. Do tej pory najbardziej chyba niebezpiecznym przykładem było nagranie z prezydentem Ukrainy, rzekomo wzywającym ukraińskich żołnierzy do poddania się.

Czytaj też

Nowa wersja Midjourney prezentuje realistyczne obrazy

Kilka dni temu narzędzie sztucznej inteligencji Midjourney do generowania obrazów w oparciu o sztuczną inteligencję ogłosiło kolejną – doskonalszą wersję (piątą) syntezatora, który pozwala na fotorealistyczne ujęcie tematu. Choć dotąd krytycy stwierdzali, że obrazy są „zbyt doskonałe” przez to gołym okiem widać, że nie zostały wykonane przez fotografa, to przy aktualnej wersji oprogramowania wiele osób zmieniło zdanie.

Reklama

Midjourney v5 jest już dostępny testowo dla klientów, którzy subskrybują usługę za pośrednictwem Discorda – informuje serwis Ars Technica.

Jak to działa? Podobnie jak np. DALL-E czy Stable Diffusion, które generują obrazy na podstawie opisów tekstowych (zadanych przez człowieka „podpowiedzi”) i zaprezentowaniu dzieła przy pomocy modelu sztucznej inteligencji, który był szkolony na milionach dzieł sztuki stworzonych przecież przez człowieka. Kwestią sporną i na pewno do rozwiązania w przyszłości - są zresztą w tym przypadku prawa autorskie.

Po testach wykonanych przez serwis stwierdzono, że obecna wersja prezentuje „niewiarygodnie realistyczną” teksturę skóry i rysy twarzy; bardziej realistyczne oświetlenie; lepsze odbicia, odblaski i cienie; bardziej wyraziste kąty lub sceny oraz „oczy, które są prawie idealne i już nie sztuczne”.

Wcześniej łatwo było odróżnić, że to deepfake właśnie po oczach, które były nienaturalnie „puste” czy dłoniach, które były rozmazane czy „zakrzywione”.

Czytaj też

Fałszywe aresztowanie Trumpa, spotkanie Merkel i Obamy

W ostatnich dniach wśród obrazów wygenerowanych przy pomocy Midjourney znalazły się fotografie z rzekomego „aresztowania” byłego prezydenta USA Donalda Trumpa (dziś już ang. słowo "arrested" zostało zablokowane przez narzędzie) czy przedstawiającego Baracka Obamę i Angelę Merkel na plaży spędzających razem czas (niektórzy ocenili nawet, że to „romatyczne chwile”).

Problemem jest właśnie fakt, że w sieci zdjęcia rozeszły się viralowo, budząc zachwyt u jednych i przerażenie u drugich. Zachwyt, bo fotografie są bardzo realistyczne, a przerażenie, bo zdjęcia nie są w żaden sposób oznaczone jako deepfake i mogą zostać łatwo użyte w celu manipulacji.

Czy jako społeczeństwo jesteśmy gotowi na popularność narzędzi AI? Odpowiedź jest oczywista. Nie. Potrzebna jest edukacja i to od najmłodszych lat, by być odpornym na dezinformację w postaci tekstowej, wizualnej i audiowizualnej.

Jak rozpoznać deepfake?

W rozmowie z nami ekspert Demagoga Adam Majchrzak wskazywał, że kluczem do rozponania czy mamy do czynienia z fałszywką jest:

  • dokładne patrzenie i słuchanie np. naszą uwagę powinna przykuć kontrowersja wypowiedzi;
  • przyjrzenie się ruchom osoby/osób na filmie np. nienaturalne drgnięcia ust, mrugnięcie czy inne ruchy przy poruszaniu głowy powinny być wskazówką;
  • w weryfikacji deepfake'ów może pomóc narzędzie dostępne bezpłatnie na stronie watchframebyframe.com;
  • znakiem szczególnym może być przyjrzenie się czy nagranie ma punktowe rozmycia na twarzy lub na jej krawędziach.

Czytaj też

Szansa czy tylko zagrożenie?

Z pewnością umiejętność rozpoznawania deepfake'ów będzie jedną z podstawowych kompetencji krytycznego myślenia i analizowania informacji w sieci. Edukacja w tym zakresie jest konieczna.

Na nasze pytanie czy wraz z szybkim rozwojem takich narzędzi jak m.in. Midjourney nadal AI należy rozpatrywać tylko jako szansę, czy przede wszystkim jako zagrożenie Adam Majchrzak z Demagoga przestrzega, że każda nowa technologia budzi obawy i w jakiś sposób może zagrażać obowiązującym normom, bo "wypiera to, co udało się już utrwalić w społeczeństwie".

"Kiedyś obawiano się mechanicznych przędzarek czy też później – komputerów. Nierzadko strach ten przeradzał się w absurdalne formy, np. jak w przypadku telefonów, w których dopatrywano się możliwości przywoływania złych duchów. Niezależnie od tego, jak wielkie oczy miał ten strach, świat się nagle nie załamał, tylko dostosował do postępu. Czasami trzeba było się z czegoś wycofać lub usprawnić pewne rzeczy i tego nie unikniemy i tym razem, bo przed nami na pewno wiele sfer, które w kontekście AI trzeba będzie odpowiednio uregulować" - zaznacza.

Jak dodaje, jeżeli mówimy m.in. o chatbotach wykorzystujących AI, to widzi je przede wszystkim jako przyspieszenie wielu procesów, które obecnie wymagają od nas żmudnej pracy. "Ich udoskonalenie mogłoby zwiększyć naszą efektywność w pracy. Natomiast w przypadku Midjourney – wątpię, by w pełni zastąpił prawdziwych artystów, choć trzeba byłoby uregulować pewne kwestie związane z prawami autorskimi. W środowisku fact-checkerów rozwój tej technologii budzi najwięcej obaw w kontekście wykorzystywania AI w nieetycznych celach, np. dezinformacji. Jeszcze do niedawna miałem poczucie, że deepfake i podobne mu sposoby wykorzystania AI to marginalne zjawisko, ale w ostatnim czasie zaczyna się to szybko zmieniać. Przypadki wygenerowanych w całości obrazów, takich jak wspólna zabawa Baracka Obamy i Angeli Merkel na plaży oraz wygenerowane obrazy z nieistniejącego filmu „Galaxy of Flesh” wskazują, że istnieje bardzo duży potencjał do oszukiwania nas jako odbiorców treści w sieci. Nawet jeżeli te konkretne przykłady nie wydają się być groźne. Z drugiej strony to tylko kwestia czasu, aż samo AI będzie wykorzystywane na szeroką skalę do tego, by wykrywać… użycie AI, a przez to i trudniej będzie tworzyć takie fake newsy" - uważa ekspert Demagoga.

Jak wobec tego powinna wyglądać edukacja społeczeństwa, by użytkownicy mediów społecznościowych i szerzej - internetu - odpowiedzialnie tworzyli tego typu treści?

"Moim zdaniem przede wszystkim potrzebowalibyśmy czegoś w rodzaju przewodnika dotyczącego etycznego wykorzystywania narzędzi AI. Obecnie nie ma czegoś takiego, a w przestrzeni publicznej niewiele się o tym mówi. Niektórzy mogą nawet nie zdawać sobie sprawy z tego, jakie szkody mogą wyrządzić, choćby w formie żartów. Tylko nie może być to zwykły przewodnik, który padłby na półkę i nikt nie chciałby się do niego odnosić. Obecnie program nauczania w Polsce nie nadąża za samym problemem fałszywych treści, a co dopiero wykorzystaniem AI w celach dezinformacji – tutaj potrzebne są nam systemowe zmiany i dostrzeżenie roli edukacji medialnej. Wyłania się tutaj też drugi problem, tj. jak sprawdzać takie treści" - podsumowuje Adam Majchrzak.

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama
Reklama

Komentarze