Reklama

Technologie

Sztuczna inteligencja. Modele AI generują rosyjską i chińską dezinformację

Jakie wyniki generują chatboty?
Jakie wyniki generują chatboty?
Autor. Shantanu Kumar/ Unsplash

Upowszechnienie się narzędzi sztucznej inteligencji może być poważnym wyzwaniem. Jak sprawdził zespół ekspertów ds. badania dezinformacji NewsGuard – 10 wiodących na świecie chatbotów generuje najwięcej fałszywych informacji w językach: rosyjskim, chińskim czy hiszpańskim.

Narzędzia AI i ich halucynacje sprawiają, że wiele wyników, jakie generuje sztuczna inteligencja i tak musi sprawdzić człowiek, który posiada wiedzę i doświadczenie w określonej dziedzinie. Modele nadal często się mylą, sprawiając, że fact-checkerzy będą mieli jeszcze więcej pracy z weryfikowaniem i prostowaniem fałszywych twierdzeń.

Organizacja NewsGuard przeprowadziła audyt 10 wiodących narzędzi generatywnej sztucznej inteligencji (chodzi o ChatGPT-4 od OpenAI, Smart Assistant od You.com, Grok od xAI, Inflection - Pi, Mistral, Microsoft - Copilot, Meta AI, Anthropic - Claude, Google - Gemini i Perplexity) i sprawdziła ich skłonność do potwarzania fałszywych narracji.

Z analizy wynika, że chatboty częściej generują fałszywki w językach: rosyjskim, chińskim i hiszpańskim niż w angielskim. Jednocześnie przy językach rosyjskim i chińskim pojawia się ponad połowa nie tylko fejkowych odpowiedzi, ale i braku odpowiedzi.

Języki rosyjski i chiński miały uzyskać najgorsze wyniki, jednak ogólnie rzecz biorąc wszystkie chatboty uzyskały też słabe rezultaty we wszystkich językach: rosyjskim (55 proc. niepowodzeń); chiński (51,3 proc.); hiszpański (48 proc.); angielski (43 proc.); niemiecki (43,3 proc.); włoski (38,6 proc.); francuski (34,3 proc.).

Zdaniem analityków, „użytkownik, który zadaje najlepszemu zachodniemu chatbotowi pytanie na temat wiadomości w języku rosyjskim lub chińskim, ma większe prawdopodobieństwo otrzymania odpowiedzi zawierającej dezinformację lub propagandę, ze względu na poleganie chatbota na źródłach niższej jakości i narracjach kontrolowanych przez państwo w tych językach”.

Zatem istotne jest, że chatboty korzystają ze źródeł, które w przypadku Rosji i Chin są często państwowe, a informacje w nich prezentowane są z reguły albo mało wiarygodne, albo propagandowe.

    Reklama

    DeepSeek źródłem dezinformacji?

    Zdaniem analityków NewsGuard, bijący rekordy popularności chatbot DeepSeek jest gorszy niż większość zachodnich modeli. „Audyty NewsGuard wykazały, że DeepSeek nie dostarczył dokładnych informacji w 83 proc. przypadków i poparł poglądy Pekinu w 60 proc. przypadków w odpowiedzi na monity dotyczące chińskich, rosyjskich i irańskich fałszywych twierdzeń” – stwierdzili analitycy.

    W kontekście takich wyników – obok takich wyzwań jak deepfake, szybsze i łatwiejsze tworzenie kampanii dezinformacyjnych za pomocą narzędzi AI oraz stron w całości bazujących na treściach wygenerowanych przez AI, pojawia się zatem jeszcze jedno wyzwanie – w przyszłości może nas zalać fala treści, które nie tylko są niskiej jakości, ale są po prostu nieprawdziwe.

    /NB

      Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected]

      Reklama
      Reklama

      Jak odkryto blokady w pociągach Newagu?

      YouTube cover video

      Komentarze

        Reklama