Reklama

Technologie

Hiperrealizm AI. Rozpoznanie „prawdziwej” twarzy coraz trudniejsze

Coraz trudnej rozpoznać zdjęcie od obrazu wygenerowanego przez AI.
Coraz trudnej rozpoznać zdjęcie od obrazu wygenerowanego przez AI.
Autor. Ben Sweet/Unsplash

Mamy coraz większy kłopot w odróżnieniu zdjęć przedstawiających prawdziwe osoby od obrazów wygenerowanych przez sztuczną inteligencję. Co sprawia, że efekty pracy AI wydają się nam bardziej „ludzkie”?

Reklama

Magazyn „Psychological Science” zaprezentował wyniki badań przeprowadzonych przez przedstawicieli Australian National University, University of Toronto, University of Aberdeen i University College London. Tytuł pracy to: „AI Hyperrealism: Why AI Faces Are Perceived as More Real Than Human Ones” (ang. „Hiperrealizm AI: dlaczego twarze AI są postrzegane jako bardziej rzeczywiste niż ludzkie”.)

Reklama

Na czym ma polegać wspomniany w tekście efekt „hiperrealizmu AI”? Według twórców pojęcia, chodzi tu o zjawisko, w którym badana osoba przypatrując się dwóm obrazom ludzkiej twarzy (zdjęcie realnego człowieka oraz wizerunek wygenerowany przez sztuczną inteligencję) twierdzi, że to właśnie w tym drugim przypadku mamy do czynienia z fotografią prawdziwej osoby. Dlaczego? Powodów może być kilka.

Czytaj też

Bardziej realistyczny

Podczas jednego z eksperymentów badanym (dorośli o jasnym kolorze skóry) zaprezentowano sto twarzy wygenerowanych przez AI i sto zdjęć realnych osób. Okazało się, że spośród 124 uczestników badania aż 66 proc. z nich wskazało na zdjęcie AI, jako na rzekomo prawdziwą fotografię. Zaledwie 51 proc. z nich rozpoznało prawdziwego człowieka.

Reklama

Co warte podkreślenia, wyniki przedstawiały się inaczej, gdy oceniano zdjęcia twarzy osób innych ras niż biała. Wtedy nie 66 proc. badanych, a 51 proc. z nich, uznało obraz AI za rzekomo realny. O czym to świadczy?

Jak czytamy w serwisie Ars Technica, pokazuje to, że wizerunki osób białych są wykonywane przez modele generatywnej sztucznej inteligencji w sposób bardziej szczegółowy i realistyczny. Wynika to w dużej mierze z tego, że algorytmy były głównie szkolone na zdjęciach takich osób, więc miały więcej możliwości doskonalenia się właśnie na tych konkretnych źródłach. Na ten moment trudno przewidzieć, jakie konsekwencje może przynieść taki stan rzeczy.

Czytaj też

Ładniejszy = stworzony przez AI?

Przytaczając wyniki badań, warto odnieść się do jeszcze jednego eksperymentu. Tym razem był on przeprowadzony na grupie liczniejszej, bo ok. 600-osobowej Test dotyczył oceniania ludzkiej twarzy a twarzy wygenerowanej przez AI na podstawie cech charakterystycznych.

Wyniki są bardzo interesujące. Okazało się, że czynniki takie jak proporcjonalność twarzy czy też mniej elementów charakterystycznych sprawiały, że ludzie częściej odbierali obrazy wygenerowane przez AI, jako rzekomo realne zdjęcia. Co jeszcze bardziej interesujące, jeśli osoba na obrazie była uważana za bardzo atrakcyjną, tym częściej badani uważali, że mają do czynienia z wytworem AI.

Błędne koło

Postępujący z każdym kolejnym miesiącem rozwój AI sprawia, że skuteczne odróżnianie realnej i wygenerowanej przez AI twarzy powoduje u człowieka coraz większe problemy. Osoby pracujące nad sztuczną inteligencją chcą temu zaradzić. Jak wskazuje Ars Technica, powstało już narzędzie uczenia maszynowego, które w 94 proc. przypadków poprawnie dokonuje rozróżnienia na twarz realną i wygenerowaną przez AI.

Z jednej strony jest to wiadomość dobra, bo pokazuje, że technologia będzie zdolna pomagać nam w skuteczniejszym oddzielaniu świata realnego od wirtualnego, ale z drugiej strony jest coś niepokojącego w tym, że coraz częściej jesteśmy „zmuszani” do przekazywania szeregu kompetencji w ręce maszyn.

/MG

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Komentarze

    Reklama