Technologie
ChatGPT i generatywne algorytmy mogą napędzać denializm naukowy [KOMENTARZ]
ChatGPT, a także inne algorytmy generatywnej sztucznej inteligencji, mogą napędzać denializm naukowy - np. w kwestiach klimatycznych. Mogą przez to doprowadzić do ogólnej degradacji poznawczej społeczeństwa - całkowicie niezauważenie.
ChatGPT to nie wyszukiwarka internetowa - jednak, jak pokazują liczby, coraz więcej osób tak właśnie z niego korzysta, chcąc w przystępnej formie konsumować informacje z sieci.
Serwis Conversation ostrzega jednak: słynny duży model językowy firmy OpenAI wyszukuje dane w internecie zupełnie inaczej, niż robią to wyszukiwarki, do których przywykliśmy - takie, jak np. Google.
Czytaj też
ChatGPT to nie wyszukiwarka
Zamiast przeszukiwać internet w „klasyczny" sposób na bazie słów kluczowych wpisanych w pole wyszukiwania, ChatGPT odpowiada na nasze pytania generując frazy, w których wykorzystywane są predykcje na temat możliwych kombinacji słów. Wszystkie one pochodzą z ogromnego zbioru danych online, którymi posługuje się model - jednak nie ma to wiele wspólnego z wyszukiwaniem treści w internecie.
Zdolności ChatuGPT do „halucynowania", czyli - mówiąc wprost - zmyślania odpowiedzi na zadawane pytania, obrosły już legendami. Równie nagłośniona została możliwość wykorzystania tego LLM do dezinformacji - o czym można poczytać na naszych łamach.
Czatbot-denialista
Eksperci zajmujący się przeciwdziałaniem denializmowi naukowemu zwracają jednak uwagę, że niszczący potencjał AI jest znacznie większy.
Autorki książki „Science Denial: Why It Happens and What to do About It" („Denializm naukowy: dlaczego ma miejsce i co z tym zrobić"), Barbara K. Hofer i Gale M. Sinatra zauważają, że generatywna sztuczna inteligencja może doprowadzić do rozmycia granic pomiędzy prawdą i fikcją, w szczególności u osób, które nie mają umiejętności krytycznego myślenia, a poszukują informacji autorytatywnych i budzących zaufanie.
Hofer i Sinatra wskazują, że dziś odbiorcy treści w internecie - również tych naukowych, jak i informacyjnych - muszą być jeszcze bardziej ostrożni, bo zagrożenie niedokładnymi lub nawet wprowadzającymi w błąd informacjami rośnie.
Jak generatywna AI może przeszkadzać nauce?
Zdaniem badaczek, przede wszystkim prowadząc do erozji zaufania poznawczego. Kiedy czytamy jakieś treści naukowe w internecie, opieramy się - w zaufaniu do nich - przede wszystkim na autorytecie i doświadczeniu ekspertów, którzy są ich autorami. Zaufanie poznawcze to proces budowania zaufania wobec wiedzy, którą uzyskujemy ze świata zewnętrznego - twierdzą naukowczynie i podkreślają, że jest on fundamentalny dla rozumienia i wykorzystywania w swoim życiu zdobywanych informacji naukowych.
Bardzo często stykając się z treściami naukowymi, sami nie mamy dość kompetencji, aby ocenić, czy są one prawdziwe czy nie - to właśnie wtedy odwołujemy się do autorytetu autora. Wraz z rosnącą liczbą treści, które nas otaczają, decyzje o tym, czy ufać, czy nie, a jeśli tak - komu, podejmujemy bardzo często.
Pojawienie się ChatuGPT i innych tego typu narzędzi może doprowadzić do erozji zaufania bardzo szybko - bo to właśnie czatbot stanie się dla nas autorytetem i źródłem informacji.
Jak zmyśla ChatGPT?
Innym problemem, na który wskazują ekspertki, jest dezinformowanie przez sztuczną inteligencję, bo - jak już wspomniano wcześniej - nie była ona szkolona do wyszukiwania treści, tylko do tego, aby brzmiała jak najbardziej przekonująco. Jednocześnie, ChatGPT podaje nam „wiedzę" nie ujawniając przy tym żadnych źródeł (robi to wyszukiwarka Bing Microsoftu, która również korzysta z czatbota, ale tu proces jest znacznie bardziej wiarygodny - red.).
Po wpisaniu w okienko czatbota swojego imienia i nazwiska, otrzymałam dwa różne rezultaty. Jeden pokazał się po zadaniu pytania o wersję moich danych ze zdrobnieniem, drugi - w pełnej formie. Jak się okazało, w przypadku zdrobnienia czatbot nie miał pojęcia o tym, że istnieję - wytłumaczył to tym, że jego szkolenie zakończyło się w 2021 r. W przypadku imienia w pełnej wersji natomiast, od ChatuGPT dowiedziałam się, że pracowałam w TVP i jestem laureatką licznych nagród dziennikarskich (żadna z tych rzeczy nie jest prawdą).
Wiele informacji, które zwraca nam model, może też być zwyczajnie przestarzałych - w licznych przypadkach pytań czatbot informuje mnie, że nie jest w stanie odpowiedzieć mi na dane pytanie, gdyż jego szkolenie zakończyło się w 2021 r. To dużo - w niektórych dziedzinach od tamtego momentu wiedza naprawdę rozwinęła się w sposób znaczny.
Jak nie dać się zwariować?
Przede wszystkim - wiedzieć, że czatbot to nie wyszukiwarka . Jeśli chcemy skorzystać z wyszukiwarki z funkcją czatbota - warto sięgnąć po Bing od Microsoftu, w której taka technologia działa. Tam, kiedy zadamy pytanie, otrzymamy odpowiedź wspartą źródłami, jednak również i w przypadku produktu Microsoftu, zobaczymy też ostrzeżenie o konieczności samodzielnego weryfikowania informacji.
Warto zderzać swoją wiedzę z serwisami fact-checkingowymi, takimi jak np. te prowadzone przez organizację Demagog , a także śledzić na bieżąco media społecznościowe - również my w swoich kanałach informujemy o licznych przypadkach dezinformacji czy cyrkulujących fałszywych opiniach.
Czy pojawienie się czatbotów może przywrócić nas na właściwe tory i sprawić, że znów zaczniemy interesować się tym, skąd pochodzi nasza wiedza, konsumowane przez nas informacje oraz dane...? Brzmi idealistycznie, jednak od czego są marzenia?
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].