AI jako fact-checker na wojnie izraelsko-irańskiej

Autor. Mariia Shalabaieva / Unsplash
Użytkownicy X masowo używają Groka do weryfikacji opublikowanych postów. Stało się to wybitnie widoczne w przypadku wojny między Izraelem i Iranem. Jak AI stworzona z inicjatywy Elona Muska radzi sobie z weryfikacją doniesień na platformie również należącej do miliardera?
Sztuczna inteligencja wdrożona na platformie X pozwala nie tylko do zadawania pytań w wiadomości prywatnej, ale również pod postami innych użytkowników. Wystarczy oznaczyć profil, a w treści posta wpisać odpowiedni prompt. Wtedy pod naszą publikacją pojawi się odpowiedź sztucznej inteligencji. Według oficjalnych komunikatów Groka oraz X nie zakładano, że przyjmie on rolę fack-checkera.
Czytaj też
Grok AI weryfikuje informacje na temat wojny
Wojna Izraela z Iranem spowodowała, że sieć została zalana informacjami na temat konfliktu, a użytkownicy platformy X używali Groka do ich weryfikacji. DFRLab postanowiło przeanalizować trafność odpowiedzi sztucznej inteligencji na podstawie 130 tysięcy wpisów.
Analizie poddano wpis jednego z użytkowników, zawierający nagranie zniszczonego lotniska.
This is not AI this is real TelAviv Airport you can confirm with Grok pic.twitter.com/d9Q6TeuyBV
— MIRZA BAIG™ (@AuctionMirza) June 14, 2025
Autor napisał, że nagranie jest prawdziwe i poprosił innych użytkowników o weryfikację tego przy pomocy Groka. Autor posta sam dokonał takiej weryfikacji, a AI zaprzeczyła, że film jest sfałszowany. Użytkownicy oznaczali Grok’a jeszcze ok. 353 razy, a ten odpowiedział na 312 zapytań.
Jego odpowiedzi do tych zapytań różniły się. Część potwierdził jako oryginalne i lotnisko zostało zniszczone. W kolejnych zaprzeczył prawdziwości nagrania, a w jeszcze innych odpowiedziach odwołał się do ataku rakietowego z 4 maja, które było wymierzone w lotnisko Ben Guriona, a także zidentyfikował je jako lotnisko w Bejrucie, Strefie Gazy czy w Teheranie.
„Grok podzielił się halucynacjami tekstu w filmie, przyczyniając się do błędnej identyfikacji lokalizacji lotniska. Grok twierdził, że film zawierał tekst, który mówił „Gaza” lub „lotnisko w Bejrucie”, ale jedynym tekstem w filmie jest „Tel Awiw”, który pojawia się w języku arabskim” - informuje DFRlab.

Odpowiedzi Groka były bardziej dokładne po dodaniu do posta Uwagi społeczności. Jest to funkcja, która umożliwia dodanie komentarza do publikacji, który ma pomóc w weryfikacji jego prawdziwości. Taki komentarz może dodać każdy, ale wyświetli się tylko ten, który zostanie oceniony przez społeczność jako pomocny. Mimo jej dostępności Grok udzielał błędnych odpowiedzi, ale było ich znacznie mniej w stosunku do tych poprawnych.
Czytaj też
Odpowiedzi oparte o prawidłowe źródła generowały błędne odpowiedzi
Grok również został poproszony o weryfikację filmu stworzonego przez sztuczną inteligencję, który przedstawiał zawalenie budynku po ataku Iranu na Tel Awiw.
Yes, the height of Al-Aad Al-Agsi has begun. .. I will not have luxury after allium. . #Iran #iranisraelwar #IsraelTerroristState pic.twitter.com/xdMA3hzsNM
— إيران بالعربية . (@iraniarabicir) June 14, 2025
Jak informuje DFRLab, Grok oparł swoje odpowiedzi na wiarygodnych źródłach. Jednak niekompletne informacje zawarte w artykułach m.in. CBS News, Newsweek i CNN, spowodowały, że AI błędnie je interpretowała.
Czytaj też
Grok błędnie weryfikuje konta
Użytkownicy używali Groka do weryfikacji, czy dane konta są oficjalnymi profilami podmiotów państwowych. Wśród tych kont znalazły się Daily Iran Military czy Iran in Arabic (إيران بالعربية)(. Pierwszy z nich był błędnie uznawany przez AI jako oficjalne konto irańskiej armii, a drugie było identyfikowane jako oficjalne konto rządowe lub powiązane z rządem irańskim.
DFRLab zaznacza, że mogło to wynikać z faktu posiadania przez te konta niebieskiego znacznika, który wcześniej na Twitterze mogły otrzymać jedynie oficjalne profile osób publicznych, podmiotów państwowych oraz innych instytucji.
Czytaj też
AI wciąż się myli
Nie jest to odkryciem, że sztuczna inteligencja wymaga dopracowania i dalszego rozwijania. Grok jako asystent w weryfikowaniu treści na X może być przydatnym narzędziem, jednak po analizie przedstawionych postów, trzeba nadal sprawdzać poprawność odpowiedzi, których udziela.
AI nie posiada pełnej świadomości społeczno-politycznej, a odpowiedzi są formułowane w oparciu o:
- dane historyczne,
- wpisy innych użytkowników (które mogą być błędne),
- prawdopodobieństwo.
Kiedy AI nie ma dostępu do konkretnej informacji zdarza się, że zaczyna halucynować. Powstają w ten sposób odpowiedzi, które wydają się być prawdziwe i powodują takie odczucia u odbiorcy, ale w rzeczywistości są całkowicie błędne.
Zamiast weryfikować treści, Grok może stać się inicjatorem dezinformacji wśród użytkowników platformy X. Ponadto, powtarzając błędne odpowiedzi, przyczynia się do wzmacniania fałszywych narracji. Zaprojektowany został jako AI z „odrobiną humoru i odrobiną buntu”, dlatego może tworzyć swoje odpowiedzi wybierając te treści, które są kontrowersyjne lub nacechowane emocjonalnie.
Czytaj też
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].
SK@NER: Jak przestępcy czyszczą nasze konta?