Technologie
Igrzyska Olimpijskie. Sztuczna inteligencja namierza hejt w sieci
Algorytmy sztucznej inteligencji monitorują sieć w poszukiwaniu hejtu we wpisach skupionych na temacie Igrzysk Olimpijskich. Wszystko po to, by uchronić sportowców przed nadużyciami na platformach mediów społecznościowych.
Igrzyska Olimpijskie to nie tylko święto sportu, wspaniałej rywalizacji i wielkich emocji, ale także wydarzenie, które jest pełne wyzwań pod kątem zapewnienia bezpieczeństwa sportowców, jak i kibiców. Chodzi nie tylko o ryzyko zamieszek czy zagrożenie terrorystyczne, ale także o odporność na dezinformację czy w cyberprzestrzeni - pod kątem ataków na systemy infrastruktury krytycznej czy próby oszustw wobec np. rezerwujących noclegi w stolicy Francji i okolicach.
Innym wyzwaniem jest także hejt i mowa nienawiści w sieci - wszechobecność mediów społecznościowych i ich rosnąca rola w codziennym życiu sprawiają, że odbiorcy często na bieżąco komentują sportowe zmagania. O ile gratulacje i ocena wyścigów oraz rozgrywek jest czymś zupełnie naturalnym, to hejt wobec startujących nie powinien mieć miejsca.
Sztuczna inteligencja na Igrzyskach
Jak pisaliśmy w analizie na łamach CyberDefence24, duże znaczenie w czasie IO ma wykorzystanie sztucznej inteligencji na rzecz walki z dezinformacją oraz z mową nienawiści.
Po raz pierwszy została uruchomiona platforma, która ma być zdolna do usuwania w czasie rzeczywistym i w ponad 35 językach oraz dialektach negatywnych komentarzy na kontach społecznościowych nie tylko około 15 tys. sportowców olimpijskich i paraolimpijskich, ale także trenerów i urzędników.
Czytaj też
AI wykrywa hejt
Teraz - jak informuje BBC - AI ma być zdolna do „przedarcia” się przez ponad pół miliarda postów w social mediach, by zweryfikować je pod kątem hejtu. Redakcja oszacowała, że przeczytanie ich zajęłoby człowiekowi niemal 16 lat, gdyby poświęcił na jeden wpis… sekundę.
Wyłapywanie przez system potencjalnie negatywnych słów wobec sportowców ma zapobiec cyberprzemocy, a narzędzie z którego korzysta MKOI to Threat Matrix.
Ma ono analizować też nastroje i wyodrębniać i kontekst danej wypowiedzi np. sarkazm, czy brać pod uwagę obrazy i emotikony. Skanowanie postów pod kątem obraźliwych komentarzy ma odbywać się na Facebooku, Instagramie, TikToku i X (dawny Twitter). System najpierw „przypisuje” do wpisu kategorię nadużycia, a następnie raportuje tego typu posty do zespołu moderacji.
Tym samym AI wykona znacznie szybciej analizę wielu danych, czego człowiek nie byłby w stanie wykonać w tak szybkim czasie i przy standardowym nakładzie sił.
Jednocześnie kontrola moderatorów na zapewnić, że AI nic nie przeoczy i nie popełniła błędu. Na koniec pracownicy walczący z hejtem mają kontaktować się z ofiarą w celu zaoferowania wsparcia, wysyłać do administratorów platformy żądanie usunięcia treści lub nawet skontaktować się z organami ścigania (co dotyczy np. kierowanych wobec sportowców gróźb śmierci).
Po zakończeniu tegorocznej Olimpiady przyjdzie czas na podsumowanie czy narzędzie sztucznej inteligencji realnie przyczyniło się do zmniejszenia skali hejtu wokół imprezy.
Czytaj też
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].