Technologie
OpenAI powalczy z dezinformacją. Stawką są wybory prezydenckie w USA
W miarę zbliżania się wyborów prezydenckich w USA w 2024 roku, OpenAI doskonale zdaje sobie sprawę z tego, że wszyscy patrzą na sztuczną inteligencję jako potencjalne zagrożenie i jednocześnie kreatora kampanii dezinformacyjnych. Tegoroczna sytuacja została nazwana przez The Washington Post “wyborami AI”.
OpenAI zmierzy się z trudnym zadaniem
W opublikowanym poście na blogu, OpenAI przedstawia swoje strategie ochrony integralności wyborów i przeciwdziałania ingerencji w kampanię na swoich platformach. Obejmuje to rozwiązywanie takich kwestii, jak wprowadzające w błąd deepfake’i, szeroko zakrojone kampanie wpływu i chatboty udające kandydatów na prezydentów.
OpenAI przyznaje, że istnieją już narzędzia zwiększające możliwości badania i weryfikowania faktów, zmniejszające stronniczość i odrzucające niektóre żądania. Na przykład DALL-E (model do tworzenia obrazów) posiada możliwość odrzucania żądań generowania obrazów prawdziwych osób, w tym kandydatów na prezydentów.
Ponadto, w nadchodzących miesiącach OpenAI zobowiązało się do zwiększenia przejrzystości w zakresie pochodzenia obrazów i narzędzi wykorzystywanych do ich tworzenia. Do czasu uruchomienia DALL-E 3 jeszcze w tym roku, firma zamierza wdrożyć metodę kodowania obrazu, która zachowa szczegóły dotyczące źródła treści.
Jeśli chodzi o ChatGPT, OpenAI nie wprowadza żadnych przełomowych aktualizacji i zamiast tego odnosi się do istniejących zasad użytkowania zarówno platformy, jak i swojego API.
Obecnie OpenAI nie zezwala na tworzenie aplikacji do prowadzenia kampanii politycznych lub lobbingu, a także chatbotów, które podszywają się pod prawdziwe osoby, w tym kandydatów i rządy. Ponadto, tworzenie aplikacji, które zniechęcają ludzi do udziału w procesach demokratycznych lub głosowaniu, jest sprzeczne z polityką użytkowania ChatGPT.
W poście na blogu zapewniono jednak, że ChatGPT wkrótce zwiększy przejrzystość, oferując globalne raporty informacyjne w czasie rzeczywistym z przypisami i linkami. Platforma współpracuje również z Krajowym Stowarzyszeniem Sekretarzy Stanu (NASS), aby zapewnić lepszy dostęp do wiarygodnych informacji na temat głosowania. Gdy użytkownicy zadają konkretne pytania związane z procedurami wyborczymi, takie jak „gdzie głosować?”, zostaną przekierowani na stronę CanIVote.org.
Co więcej, użytkownicy będą cały czas zachęcani do zgłaszania wszelkich potencjalnych naruszeń, które napotkają podczas korzystania z platformy, co jest funkcją dostępną w „nowych GPT” OpenAI.
W miarę zbliżania się wyborów ważne jest, aby priorytetowo traktować bezpieczeństwo i kierować się zdrowym rozsądkiem.
Czytaj też
Jak AI pomaga w walce z dezinformacją?
Narzędzia sztucznej inteligencji mogą pomóc w szybkim sprawdzaniu faktów i wykrywaniu zmanipulowanych mediów, takich jak deepfake. Modele sztucznej inteligencji mogą analizować metadane, głosy, obrazy itp. w celu ustalenia, czy wideo lub obraz są prawdziwe. Startupy takie jak Sensity tworzą narzędzia do wykrywania deepfake«ów. Sztuczna inteligencja może również analizować wzorce w postach w mediach społecznościowych, aby zidentyfikować skoordynowane kampanie dezinformacyjne rozpowszechniające fałszywe narracje.
Organizacje zajmujące się weryfikacją faktów wykorzystują również sztuczną inteligencję do filtrowania i nadawania priorytetów twierdzeniom dla ludzkich weryfikatorów faktów, wyszukiwania dowodów i wydawania werdyktów w sprawie prawdziwości twierdzeń.
Platformy analizy tekstu oparte na sztucznej inteligencji mogą również identyfikować poziom prawdziwości treści, porównując je z zaufanymi źródłami danych. W Hiszpanii Maldita.es wykorzystuje sztuczną inteligencję do śledzenia wspólnych narracji w serwisach informacyjnych w celu wykrycia źródeł kampanii dezinformacyjnych. AI jest również wykorzystywana do recyklingu istniejących kontroli faktów, oszczędzając czas.
Technologia ta ma jednak ograniczenia w zrozumieniu rzeczywistych wydarzeń i zniuansowanych kontekstów językowych. W pełni zautomatyzowane sprawdzanie faktów bez udziału człowieka jest wciąż odległe.
Nadal potrzebne są dalsze badania nad wpływem sztucznej inteligencji na ekosystem informacyjny. Na razie umiejętność korzystania z mediów pozostaje niezbędna - kwestionowanie wiarygodności podejrzanych treści, sprawdzanie źródeł i nie poleganie nadmiernie na sztucznej inteligencji.
Ograniczanie dezinformacji wymaga odpowiedzialności ze strony rządów, platform, badaczy, mediów i obywateli.
Czytaj też
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na:[email protected].
Haertle: Każdego da się zhakować
Materiał sponsorowany