Social media
Ban na sztuczną inteligencję dla reklamodawców politycznych. Nowe zasady w Meta
Meta, właściciel m.in. Facebooka czy Instagrama, uniemożliwi stosowanie narzędzi sztucznej inteligencji na swoich platformach m.in. w reklamach politycznych. To krok w walce z dezinformacją polityczną, choć wprowadzony już po wyborach w Polsce, które odbyły się 15 października 2023 roku.
Reklamodawcy polityczni nie będą mogli stosować nowych narzędzi sztucznej inteligencji Mety w swoich kampaniach na platformach tej firmy. W ten sposób Big Tech chce zminimalizować ryzyko rozpowszechniania dezinformacji wyborczej.
Jak wskazał Reuters, Meta ujawniła tę informację w poniedziałek wieczorem, publikując aktualizację w swoim Centrum Pomocy.
„Kontynuujemy testowanie nowych narzędzi do tworzenia reklam generatywnej sztucznej inteligencji w Menedżerze reklam; reklamodawcy prowadzący kampanie, które kwalifikują się jako reklamy dotyczące rynku mieszkaniowego, zatrudnienia, kredytów, spraw społecznych, wyborów lub polityki, bądź tych związanych ze zdrowiem, farmaceutykami lub usługami finansowymi, nie mogą obecnie korzystać z tych funkcji generatywnej sztucznej inteligencji” – poinformowała firma we wpisie objaśniającym, jak działają ich narzędzia AI w systemie reklamowym.
Aktualizacja zasad pojawia się miesiąc po tym, jak Meta ogłosiła, że rozszerzy dostęp reklamodawców do narzędzi opartych na AI. Chodzi m.in. o funkcje korekty obrazów, tworzenia tła, czy nowe funkcjonalności oparte na tekście. Na razie może z nich korzystać tylko część reklamodawców, do przyszłego roku - prawdopodobnie – zostaną wprowadzone dla wszystkich.
Co warto zaznaczyć, wcześniej Meta zobowiązała się, że opracuje system „znaków wodnych” dla treści generowanych przez sztuczną inteligencję. Jednocześnie, jak pisaliśmy na łamach CyberDefence24.pl, kilka miesięcy temu w firmie dokonano redukcji załogi między innymi w działach zajmujących się przeciwdziałaniem szerzeniu dezinformacji i monitorowaniem trolli czy botów na platformach.
Czytaj też
Polityka Google ws. AI
Zmianę polityki względem treści politycznych już we wrześniu br. ogłosił inny gigant - Google. Firma zapowiadała, że od połowy listopada (a więc również po terminie wyborów parlamentarnych w Polsce) wprowadzi wymóg wyraźnego oznaczania treści reklamowych, które zostały w jakiś sposób stworzone lub zmienione przy pomocy narzędzi opartych o generatywną sztuczną inteligencję.
Oznacza to zatem mniej restrykcyjne zasady w porównaniu do Mety (całkowity zakaz), ale wymóg oznaczania poprzez wyraźne podpisanie takiego materiału (np. poprzez stwierdzenie: „Ten obraz/ dźwięk został wygenerowany komputerowo”). Takie komunikaty muszą być także widoczne na pierwszy rzut oka.
Czytaj też
AI w kampanii w Polsce
W Polsce w ostatniej kampanii parlamentarnej materiałów wideo wyprodukowanych przy pomocy AI użyła m.in. Koalicja Obywatelska. Komitet został za to skrytykowany – początkowo w ogóle nie zostały one oznaczone, później edytowano wpisy w mediach społęcznościowych, dodając do nich właściwy podpis. W kolejnych publikacjach pojawiał się następnie mały podpis - wprost na materiale wideo.
Czytaj też
O tym, jakim zagrożeniem może być deepfake dla bezpieczeństwa użytkowników, ale i państwa, pisaliśmy w ostatnim #CyberMagazynie. Materiał dostępny jest pod linkiem.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].