Technologie
Zaufanie i bezpieczeństwo. Inaczej zaleje nas generowana przez AI dezinformacja
Podmioty z branży medialnej muszą wypracować fundamentalne zasady, wśród których znajdzie się zaufanie, bezpieczeństwo i przejrzystość, a dopiero potem korzystać ze wspomagania tworzenia treści przez sztuczną inteligencję. Inaczej zaleje nas generowana przez algorytmy dezinformacja - uważa związany z Google Arjun Narayan.
Arjun Narayan w Google odpowiedzialny jest za zaufanie i bezpieczeństwo produktu SmartNews. W rozmowie z serwisem Gizmodo wskazał na kilka jego zdaniem bardzo ważnych kwestii, które muszą zostać rozwiązane ze względu na szybki rozwój technologii generatywnej AI i jej praktycznych zastosowań, m.in. w branży medialnej.
Kluczowe kwestie
Z zastosowaniami sztucznej inteligencji generatywnej eksperymentowały już liczne media, m.in. serwis Cnet, który został za to ostro skrytykowany (nie informował odbiorców, że teksty gospodarcze redaguje AI) oraz serwis BuzzFeed. Zastosowanie produktów opartych o algorytmy bada Business Insider, a - jak zwraca uwagę Gizmodo - strony agregujące i generujące treści bez większej wartości merytorycznej (w potocznym języku - tzw. farmy contentu) korzystają z AI już od dawna, byle tylko wytworzyć jak najwięcej zawartości.
To właśnie tego rodzaju zjawiska są problemem, który spędza sen z powiek fact-checkerów i osób zajmujących się przeciwdziałaniem dezinformacji w mediach internetowych i cyfrowej sferze publicznej.
Zdaniem Narayana, największą trudnością, na jaką napotykamy analizując te zagadnienia, jest brak reguł stwarzających fundamenty dla myślenia o przejrzystości i odpowiedzialności w kontekście działania algorytmów generatywnej AI.
Czytaj też
Jakie ryzyko niesie AI w infosferze?
W opinii dyrektora ds. zaufania i bezpieczeństwa SmartNews w Google, pojawienie się generatywnej sztucznej inteligencji w zastosowaniach związanych z mediami generuje kilka rodzajów ryzyka . Są to:
- konieczność upewnienia się, że systemy AI zostały wyszkolone w oparciu o prawdziwe informacje
- konieczność zabezpieczenia się przed „halucynacjami" algorytmów i oparcie ich „wnioskowania" na logice
- dbałość o warunki etyczne i konsekwencje społeczne wdrożenia - np. przez odpowiednie regulacje
Czytaj też
Fundamentalne zasady
Wdrożenie sztucznej inteligencji w sektorze medialnym powinno być oparte na podstawowych zasadach, którymi będą zaufanie, bezpieczeństwo oraz przejrzystość, a także dbałość o etykę dziennikarską - np. w kontekście plagiatowania pracy innych autorów oraz spełnienie standardów dotyczących rzetelności generowanych treści.
Materiały tworzone przez AI w opinii Narayana muszą być sprawdzane przez zespół edytorski , który będzie czuwał nad ich jakością - np. w kwestii rzetelności, dokładności, albo politycznych odchyleń od obiektywnych standardów. Narayan ocenia również, że w przyszłości pojawią się technologie pozwalające na łatwiejsze niż to ma miejsce obecnie rozróżnianie treści generowanych przez AI od tych, które stworzył człowiek.
W opinii eksperta, ludzie nie staną się „zbędni" w erze sztucznej inteligencji, gdyż rezultaty jej pracy wciąż będą wymagały nadzoru - również w zakresie moderacji treści, jeśli chodzi o mowę nienawiści czy wspomnianą już walkę z dezinformacją .
Ta ostatnia natomiast ma szansę na szybką ekspansję, jeśli nie zadbamy o stworzenie regulacji, które wytyczą ramy zastosowania algorytmów generatywnej AI w praktyce - ocenił specjalista z Google.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].
Haertle: Każdego da się zhakować
Materiał sponsorowany