Reklama

Social media

Społeczeństwo potrzebuje ogólnodostępnych narzędzi do weryfikacji informacji

Fot. Himanshu Pandey / Unsplash
Fot. Himanshu Pandey / Unsplash

Społeczeństwo potrzebuje ogólnodostępnych narzędzi do weryfikacji informacji - zgodzili się uczestnicy dyskusji „Software na ratunek bezpieczeństwa informacyjnego. Jak sztuczna inteligencja może weryfikować fake news”, która miała miejsce podczas tegorocznej edycji konferencji Cyber24Day. 

W opinii dyrektora Ośrodka Przetwarzania Informacji Państwowego Instytutu Badawczego, dr inż. Jarosława Protasiewicza, dezinformacja i fałszywe wiadomości to informacje, które zawierają trochę informacji prawdziwych i jedną malutką nieprawdziwą informację”.

„Nasi badacze wspólnie z badaczami Akademii Leona Koźmińskiego opracowali pomysł narzędzia do wykrywania fake newsów, jak i oceny wiarygodności źródeł informacji” - powiedział. Jak wyjaśnił, praca ekspertów skupiła się wokół zagadnień takich, jak polityka, gospodarka, finanse i zdrowie publiczne, a narzędzie oparte o sztuczną inteligencję będzie analizować zagadnienia stylometryczne, a także weryfikować fakty w oparciu o odpowiednią bazę informacji. Myślę, że wprowadzenie takiego narzędzia dostępnego dla wszystkich przyniesie wielkie oszczędności gospodarcze, społeczne” - dodał Protasiewicz.

Pułkownik dr inż. Mariusz Chmielewski - zastępca dyrektora Narodowego Centrum Bezpieczeństwa Cyberprzestrzeni ocenił, że dezinformacja może rozprzestrzeniać się wirusowo i wskazał, że zastosowanie metod grafowych, wraz z analizą semantyczną może pozwolić na dostrzeżenie wielu aspektów i związków pomiędzy poszczególnymi aktorami tego procesu. Jak dodał, metody te są używane m.in. w kontekście wykrywania terroryzmu.

Czytaj także: Algorytmy polaryzujące to biznesplan Big Techów? „Żyjemy w strukturalnie zatrutej infosferze”

Zdaniem Marcela Kiełtyki z zarządu Stowarzyszenia Demagog,  dezinformacja obecnie przybiera bardzo różne formy. Organizacje fact-checkerskie nie są w stanie sprawdzić wszystkich fake newsów, jakie pojawiają się w sieci. Oczekujemy edukacji, ale obok tej edukacji, rozwiązanie technologiczne to może być coś, co naprawdę nam pomoże w tej kwestii” - ocenił Kiełtyka.

Jak dodał zastępca dyrektora NASK PIB Robert Król, z badań instytutu z 2019 r. wynika, że połowa użytkowników internetu ufa informacjom w nim publikowanym. Internauci nie ufają sondażom, uważają jednak, że media tradycyjne - takie jak telewizja czy radio - są mniej narażone na dezinformację.

Ciekawostką jest, że osoby, które ufają tym treściom, nie dostrzegają problemu dezinformacji. Informacja nieprawdziwa, która ukaże się w internecie, w połowie przypadków znajdzie swoich odbiorców, którzy puszczą ją dalej” - wskazał Król. Jego zdaniem narzędziem, które może pomóc w weryfikacji informacji zarówno opinii publicznej jak i dziennikarzom, jest projekt Fake Hunter stworzony przez GovTech wspólnie z Polską Agencją Prasową.

Największym problemem szybkość rozprzestrzeniania się fałszywych informacji 

Największym problemem, którego doświadczamy w tej chwili, jest szybkość (rozprzestrzeniania się fałszywych narracji - red.)” - powiedział płk dr inż. Mariusz Chmielewski, zastępca dyrektora Narodowego Centrum Bezpieczeństwa Cyberprzestrzeni (NCBC). Jak wskazał, problematyczny pozostaje również brak narzędzi pozwalających na obiektywizację oceny. Ostatecznie, wojsko, jak powiedział Chmielewski, również jest narażone na procesy dezinformacyjne.

Robert Król z NASK zwrócił uwagę, że bardzo trudne do mapowania i rozpoznawania są nowe fake newsy. Z naszego doświadczenia wynika, że bardzo często ten fake news, który faktycznie szkodzi, jest nowy. Ciężko jest zdefiniować algorytmy, które rozpoznają nowy fake news” - powiedział. Widzimy możliwości do tego, żeby znaleźć już zdefiniowane i zadziałać tam, gdzie zostały opublikowane - ale z mojego doświadczenia obecnie wynika, że nie ma narzędzia, które dałoby nam odpowiedź na nowe fałszywe informacje” - dodał Król.

Płk Chmielewski dodał, że właśnie ze względu na to, tak istotna jest pewna bezwładność w procesie oceny informacji. Jeśli informacja będzie podawana szybko, to będziemy mieli do czynienia z superspreaderami dezinformacji” - ocenił.

Stylometria, analiza faktów, ocena wiarygodności faktów

Dr inż. Jarosław Protasiewicz z OPI PIB zapytany o to, czy może powstać inteligentny algorytm wrażliwy na subtelności semantyki języka, ocenił, że według ekspertów Ośrodka Przetwarzania Informacji jest to możliwe. Mamy tu trzy aspekty: to stylometria (…), analiza faktów i decyzja człowieka” - powiedział. Decyzja zawsze należy do człowieka” - dodał.

Marcel Kiełtyka z Demagoga, odpowiadając na pytanie o to, kto powinien decydować o ocenie źródeł jako wiarygodnych, powiedział, że jego organizacja kieruje się w tym względzie ogólnoprzyjętym konsensusem naukowym.

Robert Król z NASK z kolei stwierdził, że jego zdaniem słuszne jest niewskazywanie, które źródło jest wiarygodne, tylko uczenie społeczeństwa metod weryfikacji.

Neutralność algorytmów

Według dr inż. Protasiewicza z OPI PIB, technologia nie jest ani dobra ani zła, kontekst nadają ludzie, którzy mogą użyć jej w dobrej lub złej wierze”. Jak wskazał, trudno użyć jest argumentacji, że algorytmy wprowadzają w błąd, bo one wiedzą tyle, ile im powiemy”.

„Głęboko wierzę, że nasze społeczeństwo jest bardzo mądre. Ludzie z przyrodzenia są mądrzy, wystarczy ich wyposażyć w narzędzia, które pozwolą im zdecydować, czy chcą te informacje czytać, czy nie” - dodał Protasiewicz.

Zdaniem Protasiewicza, algorytmy budowane za pieniądze publiczne są własnością społeczeństwa, a kluczem do wiarygodności jest zapewnienie odpowiedniej przejrzystości wszystkich procesów im towarzyszących.

Płk dr inż. Chmielewski, odpowiadając na pytanie o to, czy możliwy jest cyberatak polegający na zatruciu algorytmu informacjami wprowadzającymi go w błąd tak, by dawał wypaczone rezultaty, wskazał że już teraz powoływane są agencje na poziomie rządów wielu krajów, które działają na pograniczu nauki i wojska, i zajmują się tematyką stosowania wysokich technologii, w szczególności SI, celem zabezpieczania m.in. przed tego rodzaju działaniami.

Protasiewicz ocenił, że to realny problem, opisywany już teraz w pracach naukowych. Przestępcy miesiącami, latami wysyłają fałszywe dane, żeby model miał furtkę” - wyjaśnił. Dlatego największym kosztem modelu są dane. Drogą do jego ochrony są zaś transparentność i otwartość” - powiedział dyrektor OPI PIB.

Zobacz również: [Cyber24Day] Molenda: Sami nigdy nie damy rady się obronić, partnerstwo to konieczność

Cenzura to nie rozwiązanie

Uczestnicy dyskusji zgodzili się, że ograniczenie wolności słowa i wzmocnienie kontroli nad internetem przez państwo to nie jest właściwa droga do rozwiązania problemu dezinformacji.

Wolałbym pozostawić wybór końcowemu użytkownikowi” - wskazał Marcel Kiełtyka.

Płk dr. inż. Chmielewski powiedział zaś, że odłączenie od internetu jest praktycznie w tej chwili niemożliwe, nie mówiąc o skutkach społeczno-politycznych, nieważne, której władzy”.

Zgodził się z nim dr Protasiewicz, który wskazał, że nie powinniśmy blokować wolnej woli, a odcięcie Polski od internetu nie byłoby możliwe bez ogromnych strat społecznych i gospodarczych”.

image

 


Chcemy być także bliżej Państwa – czytelników. Dlatego, jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba  napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected]. Przyszłość przynosi zmiany. Wprowadzamy je pod hasłem #CyberIsFuture.

image
Fot. Reklama

Reklama
Reklama

Komentarze