Reklama

Technologie

ChatGPT to „generator bullshitu”. Dlaczego zatem dajemy się na niego nabrać?

Autor. Focal Foto / Flickr

ChatGPT to „generator bullshitu” – twierdzi prof. Arvind Narayanan z Uniwersytetu w Princeton. Dlaczego w takim razie z sukcesem pisze egzaminy za studentów i dlaczego stworzone przez firmę OpenAI narzędzie do wykrywania generowanych nim tekstów nie działa?

Reklama

Zdaniem profesora Narayanana, ChatGPT to „generator bullshitu” przede wszystkim dlatego, że nie został wytrenowany do generowania tekstów, które spełniają warunki prawdziwości (nie tylko w sensie logicznym, ale i faktograficznym).

Reklama

ChatGPT został wyszkolony, aby generować teksty brzmiące wiarygodnie – a to spora różnica. Wiarygodność natomiast, jak argumentuje naukowiec, jest czynnikiem kluczowym do przekonywania – a właśnie taki cel, przekonanie nas, że obcujemy z tekstem generowanym nie przez algorytm, ale przez „autora białkowego” (jak można żartobliwie określić człowieka w starciu z modelami językowymi), przyświecał twórcom ChatGPT.

ChatGPT wywoła rewolucję, której nie chcemy

Narayanan argumentuje, że ChatGPT może zatem sprawnie konstruować teksty zbliżone formalnie do tych, które piszą ludzie – ale nie jakościowo. W pewnym momencie, zdaniem naukowca z Princeton, technologia ta „wywróci się” na prostej przeszkodzie, jaką jest konieczność samodzielnej oceny wartości logicznej i semantycznej konstruowanych twierdzeń.

Reklama

Rezultatem takich pomyłek może być produkcja na masową skalę dezinformacji – o możliwych zastosowaniach ChatGPT w operacjach informacyjnych pisaliśmy na łamach naszego serwisu w tym tekście . Oznacza to również, że zastosowania tego modelu w pracy dziennikarskiej lub w edukacji są na razie mocno ograniczone – właśnie przez problem braku gwarancji prawdziwości generowanych przez ChatGPT twierdzeń.

Algorytm do wykrywania algorytmu

Firma OpenAI, która stworzyła ChatGPT, upubliczniła niedawno narzędzie do wykrywania generowanych przez niego tekstów.

Algorytm do wykrywania algorytmu – bo tak można w skrócie określić mechanizm jego działania – ma być odpowiedzią na oszustwa uczniów, studentów i pracowników wykorzystujących ChatGPT np. do rozwiązywania zadań na egzaminach albo pisania prac zaliczeniowych.

Okazuje się jednak, że – jak podaje agencja Bloomberga – narzędzie do wykrywania tekstów generowanych przez ten model potrafi to robić ze skutecznością sięgającą jedynie 26 proc.

Narzędzie do wykrywania tekstów generowanych przez sztuczną inteligencję miało służyć nie tylko po to, aby oznaczać materiały wytworzone przez ChatGPT – według OpenAI, jego celem było również wykrywanie innych generowanych przez algorytmy materiałów.

Firma przyznała jednak, że algorytm do wykrywania algorytmów ma liczne ograniczenia, dlatego powinien być wykorzystywany jedynie jako uzupełnienie narzędziowe w pracy przy ocenie źródła pochodzenia danego tekstu.

Jako wisienkę na torcie warto w tym momencie potraktować informację, że obok 26-proc. skuteczności w wykrywaniu tekstów generowanych algorytmicznie, narzędzie OpenAI jako wytworzone przez sztuczną inteligencję oznaczyło również 9 proc. tekstów pisanych przez człowieka.

Czy ChatGPT zniszczy Google?

Tezę taką sformułował na Twitterze twórca Gmaila – poczty elektronicznej tego koncernu Paul Buchheit.

Jego zdaniem firma ta, nawet jeśli „nadgoni badania w zakresie AI", nie będzie zdolna do uruchomienia produktów ją zawierających bez zniszczenia najbardziej dochodowej i wartościowej części swojego biznesu – wyszukiwarki Google.

Jak w późniejszych wpisach doprecyzował Buchheit, jego zdaniem pojawienie się generatywnej sztucznej inteligencji doprowadzi do zaniku wyszukiwarek w obecnej formie:

O tym, że spółka rozpoznała ChatGPT jako zagrożenie dla swojej wyszukiwarki, również można było przeczytać na łamach CyberDefence24.pl w tym tekście , w którym opisaliśmy rozmowy toczące się między obecnymi menedżerami firmy a jej twórcami, którzy w Google'u już nie pracują, jednak wciąż konsultują z koncernem np. strategię wdrażania sztucznej inteligencji.

Jako uzupełnienie usług wyszukiwania natomiast modele językowe takie jak ChatGPT potraktował chiński odpowiednik Google – firma Baidu , która zapowiedziała, że udostępni użytkownikom swojego bota tego rodzaju jeszcze przed końcem obecnego kwartału. Oznacza to w skrócie, że Baidu musi nad nim pracować od co najmniej kilku lat.

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Komentarze

    Reklama