Polityka i prawo
Twitter poradzi sobie z cyfrową manipulacją? W inicjatywę zaangażowani użytkownicy
Twitter stworzył roboczą listę możliwości przeciwdziałania szerzeniu się cyfrowej manipulacji na platformie, w tym głównie materiałów deepfake. Władze firmy zbierają opinie użytkowników na temat strategii działania w tego typu sytuacjach.
Propozycje opisane na blogu firmowym Twittera wahają się od oznaczania "sztucznych lub zmanipulowanych" zdjęć i wideo, przez wyświetlanie ostrzeżeń przy próbie ich polubienia lub udostępnienia, po zamieszczanie odnośników do opracowań wskazujących, dlaczego materiał może być fałszywką. W przypadku tweetów wprowadzających w błąd lub stwarzających poważne zagrożenie spółka przewiduje również możliwość ich usunięcia.
Przyjęta przez Twittera definicja "sztucznych lub zmanipulowanych" materiałów obejmuje wszelkie zdjęcia oraz materiały audio i wideo, które zostały "sfabrykowane lub poddane znaczącym modyfikacjom mającym zmieniać ich pierwotny wydźwięk lub wprowadzać odbiorców w błąd". Jak wskazała we wtorek agencja Reutera, w tym ujęciu mieszczą się zarówno tzw. treści deepfake, opracowywane przy pomocy sztucznej inteligencji, jak i materiały poddane ludzkiej ingerencji, np. fotomontaże.
Twitter zamierza zbierać uwagi na temat proponowanych rozwiązań do 27 listopada.
W lipcu przedstawiciele Kongresu USA wezwali firmy internetowe do stworzenia planu walki z deepfake'ami i innymi realistycznymi fałszywymi treściami, oceniając, że stanowią one poważne zagrożenie przed wyborami prezydenckimi w 2020 roku. Zdaniem amerykańskich polityków dezinformacja prowadzona z użyciem sztucznej inteligencji stanowi realny problem, a spółki takie jak m.in. Facebook, Twitter, Snap czy Reddit powinny podjąć działania zmierzające do ograniczenia rozpowszechniania tych treści na swoich platformach.
Należący do koncernu Jeffa Bezosa dostawca chmury Amazon Web Services zapowiedział w październiku, że dołączy do prowadzonego przez Facebooka i Microsoft konkursu "Deepfake Detection Challenge". Program ten ma promować rozwój rozwiązań dotyczących rozpoznawania zmanipulowanych treści.