Technologie
Najsłynniejszy głos Hollywood wykorzystany w nagraniu AI. „Oszustwo”
Morgan Freeman podziękował swoim fanom za zwrócenie uwagi na fałszywy film, który krążył na TikToku. Na nagraniu zdobywca Oskara rzekomo opowiadał o dniu swojej siostrzenicy. Materiał został wygenerowany przy pomocy sztucznej inteligencji.
Morgan Freeman ma jeden z najbardziej rozpoznawalnych głosów w Hollywood. Nic dziwnego, że aktor skomentował film krążący na TikToku.
Fałszywe nagranie
„Witamy w dniu z życia mojej siostrzenicy, opowiadanym przeze mnie, Morgana Freemana” – zaczyna się fałszywy film, który zniknął już z platformy.
Twórca opisał nagranie: „Wujek Mo był zajęty i zajęty, ale w końcu udało mi się go namówić, żeby opowiedział o mojej podróży!”. Autor wideo dodał też hashtag #AI ale, jak donosi Fox News, wiele osób i tak myślało, że wideo jest autentyczne.
Czytaj też
Morgan Freeman dziękuje fanom
Do fałszywego nagrania aktor odniósł się w mediach społecznościowych. „Dziękuję moim niesamowitym fanom za czujność i wsparcie w ujawnianiu nieautoryzowanego użycia głosu AI, imitującego mnie. Wasze poświęcenie pomaga zachować autentyczność i integralność. Jestem wdzięczny” – czytamy we wpisie na portalu X (dawny Twitter).
Morgan Freeman dodał też hashtagi „#AI #scam #imitation” (sztuczna inteligencja, oszustwo, imitacja).
Thank you to my incredible fans for your vigilance and support in calling out the unauthorized use of an A.I. voice imitating me. Your dedication helps authenticity and integrity remain paramount. Grateful. #AI #scam #imitation #IdentityProtection
— Morgan Freeman (@morgan\_freeman) June 28, 2024
Czytaj też
Głosy i wizerunek celebrytów a sztuczna inteligencja
Morgan Freeman nie jest pierwszą gwiazdą Hollywood, która zwraca uwagę na wykorzystanie jej głosu bez zgody w kontekście sztucznej inteligencji.
Pod koniec maja Scarlett Johansson interweniowała w sprawie interfejsu głosowego GPT-4o przygotowanego przez OpenAI i nazwanego Sky, który okazał się brzmieć bardzo podobnie do głosu aktorki. O sprawie pisaliśmy na łamach Cyberdefence24.
Niejednokrotnie nagłaśnialiśmy też sytuacje, w których wizerunki gwiazd były wykorzystywane w deepfake’ach powstałych z użyciem AI. Po Met Gali w portalu X krążyły deepfake’i Katy Perry, Rihanny, Lady Gagi czy Duy Lipy sugerujące, że były one na wydarzeniu.
Kolejny przypadek tego typu miał miejsce w Indiach. Dwóch znanych aktorów Bollywood pojawiło się na fałszywych nagraniach, na których rzekomo krytykowali premiera kraju Narendrę Modiego. Deepfake powstał tuż przed indyjskimi wyborami parlamentarnymi, z intencją wpływania na głosowanie.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].