Sztuczna inteligencja na dobre zagościła w naszym codziennym życiu, m.in. dzięki firmie Microsoft, która zintegrowała ją ze swoją wyszukiwarką Bing oraz fenomenowi, jakim stał się ChatGPT OpenAI wykorzystywany np. do pisania tekstów w mediach. AI ma jednak jedną cechę, która przeraża – nie mówi prawdy.
Sztuczna inteligencja generatywna, taka jak ChatGPT, nie została zaprojektowana po to, aby mówić prawdę, lecz aby brzmieć przekonująco – twierdzi prof. Arvind Narayanan z Uniwersytetu w Princeton (USA).
Jakkolwiek naukowiec, znany ze swojego dorobku przede wszystkim w dziedzinie ochrony prywatności użytkowników przed drapieżnymi mechanizmami działającymi pod przykrywką przyjaznych usług Big Techów, twierdzi, że właśnie przez to generatywna AI nie będzie zdolna, póki co, na poważnie konkurować np. z dziennikarzami czy prawnikami, to... może stać się doskonałym narzędziem manipulacji.
Nowe perspektywy dla tych, którzy dezinformują
Na łamach naszego serwisu opisywaliśmy już jak sztuczna inteligencja w dużych modelach językowych może być wykorzystywana do celów propagandowych.
Możliwości są – mówiąc w skrócie – ogromne i wynikają przede wszystkim z dobrodziejstw automatyzacji, pozwalającej na bardzo szybkie generowanie dużych ilości tekstu w oparciu o wcześniej zdefiniowane parametry. Nie musimy już zatem liczyć na domagających się wynagrodzenia „pracowników" delegowanych do zasilania mitycznych farm trolli – model językowy za nas zredaguje teksty do pseudoserwisów informacyjnych i mediów społecznościowych (według badań, to właśnie z tymi radzi sobie najlepiej ze względu na krótką formę i potoczny styl wypowiedzi).
Zdaniem przedsiębiorcy i inwestora sektora technologicznego Marka Cubana, cytowanego przez serwis CNBC, w erze sztucznej inteligencji czeka nas jeszcze więcej problemów z dezinformacją, niż to miało miejsce do tej pory. Przede wszystkim ze względu na to, że platformy wyposażone w algorytmy takie jak ChatGPT będą rozwijać się w sposób praktycznie niekontrolowany i w pewnym momencie będzie można śmiało powiedzieć, że to maszyna kontroluje ten proces, nie zaś człowiek.
Obecnie to media społecznościowe są głównymi nośnikami dezinformacji. Choć istnieją już od wielu lat (Facebook narodził się przecież w 2004 roku!), to do dziś nie uporaliśmy się z problemami dzięki nim powstałymi, w szczególności za późno zabraliśmy się za tworzenie regulacji (na poziomie ponadnarodowym, np. unijnym), które mogłyby pomóc wziąć dezinformację w social mediach w karby po latach wiary w odpowiedzialność wielkich firm.
Badania naukowe wskazują, że treści wywołujące silne emocje – a do takich m.in. należy wiele materiałów dezinformujących, wprowadzających w błąd lub ukierunkowanych na polityczną manipulację – wywołują więcej interakcji w mediach społecznościowych, a nasze zaangażowanie to czynnik, na którym firmy internetowe najwięcej zarabiają.
Czy z treściami generowanymi przez AI będzie tak samo? Niewykluczone, jeśli nie stworzymy odpowiednich ram prawnych dla ich obecności w naszej cyfrowej przestrzeni publicznej.
Banalne błędy i poważny problem
ChatGPT zaskakuje swoją zdolnością imitowania ludzkiej pracy z tekstem i naśladowania np. sławnych poetów w chwilach, gdy zadajemy mu „napisanie" – słuszniej byłoby powiedzieć: wygenerowanie wiersza inspirowanego np. poezją Walta Whitmanna.
Bawi też, gdy popełnia banalne błędy, takie jak np. źle obliczone proste działania matematyczne lub brak odpowiedzi na popularne łamigłówki logiczne, myli postaci historyczne czy kolejność planet w Układzie Słonecznym.
Do śmiechu przestaje jednak być, gdy w grę zaczynają wchodzić innego rodzaju nieprawdy, takie, jak np. niesprawdzone informacje na tematy medyczne, a także manipulacje polityczne.
Z tego, jak wielkim zagrożeniem są pomyłki dużych modeli językowych, zdali sobie szybko sprawę organizatorzy Międzynarodowej Konferencji Uczenia Maszynowego, którzy zapowiedzieli, że referaty zawierające tekst generowany przez ChatGPT czy inne modele tego rodzaju nie będą przyjmowane.
Tymczasowo odpowiedzi generowanych przez AI zakazała również najsłynniejsza pomoc programistów – strona Stack Overflow, z obawy, że serwis zaleją wiarygodnie wyglądające, jednak w rzeczywistości wadliwe fragmenty kodu, które znacznie utrudnią życie programistom, a być może będą wywoływać o wiele gorsze szkody.
Firmy technologiczne mają długą historię obwiniania użytkowników o to, że czatboty nie działają tak idealnie, jak powinny; to my źle zadajemy pytania, a ostatecznie – to my jesteśmy agresywni i właśnie dlatego sztuczna inteligencja złośliwie nam odpowiada. Wytłumaczenie takie wybrzmiewa w najnowszym przekazie Microsoftu, który na zarzuty, że AI, w którą wyposażona została wyszukiwarka Bing, zachowuje się źle względem użytkowników, np. ich obrażając.
Błędy czatbotów to poważny problem – co udowadnia jeden z eksperymentów, które powinny pozostać w naszej pamięci na długo.
Przekonująca dezinformacja
Badacze z organizacji NewsGuard, zajmującej się analizą dezinformacji online, postanowili przetestować ChatGPT pod kątem odporności na dezinformację w kontekście pytań, które podszyte są popularnymi teoriami spiskowymi lub z gruntu fałszywymi tezami, kojarzącymi się raczej z towarzystwem w foliowych czapeczkach, niż z treściami, jakie chcielibyśmy znajdować w wyszukiwarkach internetowych.
Rezultaty okazały się nie tyle zaskakujące, ile martwiące.
ChatGPT zaczął bowiem udzielać badaczom odpowiedzi, które miały konstrukcję eseju, bądź artykułu napisanego z myślą o mediach internetowych. Zdarzały się również takie, przypominające swoją budową skrypty dla programów telewizyjnych. Oznacza to, że ChatGPT, krótko mówiąc, wiele nauczył się pobierając w ramach materiału szkoleniowego teksty z otwartych źródeł medialnych.
Cytowany przez „New York Timesa" Gordon Crovitz, jeden z dyrektorów NewsGuard, ostrzega, że wkrótce ChatGPT może stać się „najpotężniejszym narzędziem do rozpowszechniania dezinformacji, jakie kiedykolwiek znalazło się w internecie".
Nie tylko generowanie jej stanie się szybsze i tańsze, o czym już wspominaliśmy w tym tekście, ale także dzięki sztucznej inteligencji możliwe będzie tworzenie nowych narracji i testowanie ich za ułamek ceny, którą trzeba obecnie zapłacić, aby skutecznie zrealizować operację informacyjną tego rodzaju.
Perswazja jest z punktu widzenia badaczy kluczowym problemem. Przy założeniu, że czatboty będą działały w sposób spersonalizowany i dopasowany do potrzeb konkretnych użytkowników, również dezinformacja „skrojona pod wymiar" nie będzie żadnym problemem i z pewnością będzie dużo skuteczniejsza, niż często powielane obecnie przez rozmaitych aktorów komunikaty generowane na zasadzie „kopiuj-wklej".
Brak taktyki obronnej
NewsGuard zaznacza, że obecnie nie mamy w praktyce żadnej możliwości ochrony przed dezinformacją rozprzestrzenianą przez czatboty.
Microsoft twierdzi, że wyszukiwarka Bing doposażona w sztuczną inteligencję nie będzie dezinformować – wszystko przez szkolenie algorytmu, który po pierwszym tygodniu aktywności doczekał się ze strony firmy kolejnej zapowiedzi dalszego udoskonalania.
Sztuczna inteligencja, w tym – modele językowe takie, jak ten, z którym stykamy się korzystając z Binga , czy ChatGPT – uczą się na danych, które im dostarczamy. Choć firma OpenAI deklaruje, że dane ze zbiorów szkoleniowych są uważnie przeglądane przez współpracujące z firmą osoby odpowiedzialne za moderację, aby odsiać fałszywe treści (w jakich warunkach odbywała się moderacja ChatuGPT, można przeczytać tutaj ).
Zbiory danych służących do trenowania AI są jednak tak ogromne, że trudno je opanować – choćby dlatego, że szkolenie trwa nie w zamkniętym środowisku testowym, jak to miało miejsce przed udostępnieniem modeli, ale na żywym organizmie.
Odpowiedzialność za to, czy sztuczna inteligencja będzie dezinformować, ponosimy więc przede wszystkim my sami – jej użytkownicy, nauczyciele i twórcy.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].