Technologie
ChatGPT to „generator bullshitu”. Dlaczego zatem dajemy się na niego nabrać?
ChatGPT to „generator bullshitu” – twierdzi prof. Arvind Narayanan z Uniwersytetu w Princeton. Dlaczego w takim razie z sukcesem pisze egzaminy za studentów i dlaczego stworzone przez firmę OpenAI narzędzie do wykrywania generowanych nim tekstów nie działa?
Zdaniem profesora Narayanana, ChatGPT to „generator bullshitu” przede wszystkim dlatego, że nie został wytrenowany do generowania tekstów, które spełniają warunki prawdziwości (nie tylko w sensie logicznym, ale i faktograficznym).
ChatGPT został wyszkolony, aby generować teksty brzmiące wiarygodnie – a to spora różnica. Wiarygodność natomiast, jak argumentuje naukowiec, jest czynnikiem kluczowym do przekonywania – a właśnie taki cel, przekonanie nas, że obcujemy z tekstem generowanym nie przez algorytm, ale przez „autora białkowego” (jak można żartobliwie określić człowieka w starciu z modelami językowymi), przyświecał twórcom ChatGPT.
ChatGPT wywoła rewolucję, której nie chcemy
Narayanan argumentuje, że ChatGPT może zatem sprawnie konstruować teksty zbliżone formalnie do tych, które piszą ludzie – ale nie jakościowo. W pewnym momencie, zdaniem naukowca z Princeton, technologia ta „wywróci się” na prostej przeszkodzie, jaką jest konieczność samodzielnej oceny wartości logicznej i semantycznej konstruowanych twierdzeń.
Rezultatem takich pomyłek może być produkcja na masową skalę dezinformacji – o możliwych zastosowaniach ChatGPT w operacjach informacyjnych pisaliśmy na łamach naszego serwisu w tym tekście . Oznacza to również, że zastosowania tego modelu w pracy dziennikarskiej lub w edukacji są na razie mocno ograniczone – właśnie przez problem braku gwarancji prawdziwości generowanych przez ChatGPT twierdzeń.
Algorytm do wykrywania algorytmu
Firma OpenAI, która stworzyła ChatGPT, upubliczniła niedawno narzędzie do wykrywania generowanych przez niego tekstów.
Algorytm do wykrywania algorytmu – bo tak można w skrócie określić mechanizm jego działania – ma być odpowiedzią na oszustwa uczniów, studentów i pracowników wykorzystujących ChatGPT np. do rozwiązywania zadań na egzaminach albo pisania prac zaliczeniowych.
Okazuje się jednak, że – jak podaje agencja Bloomberga – narzędzie do wykrywania tekstów generowanych przez ten model potrafi to robić ze skutecznością sięgającą jedynie 26 proc.
Narzędzie do wykrywania tekstów generowanych przez sztuczną inteligencję miało służyć nie tylko po to, aby oznaczać materiały wytworzone przez ChatGPT – według OpenAI, jego celem było również wykrywanie innych generowanych przez algorytmy materiałów.
Firma przyznała jednak, że algorytm do wykrywania algorytmów ma liczne ograniczenia, dlatego powinien być wykorzystywany jedynie jako uzupełnienie narzędziowe w pracy przy ocenie źródła pochodzenia danego tekstu.
Jako wisienkę na torcie warto w tym momencie potraktować informację, że obok 26-proc. skuteczności w wykrywaniu tekstów generowanych algorytmicznie, narzędzie OpenAI jako wytworzone przez sztuczną inteligencję oznaczyło również 9 proc. tekstów pisanych przez człowieka.
Czy ChatGPT zniszczy Google?
Tezę taką sformułował na Twitterze twórca Gmaila – poczty elektronicznej tego koncernu Paul Buchheit.
Google may be only a year or two away from total disruption. AI will eliminate the Search Engine Result Page, which is where they make most of their money.
— Paul Buchheit (@paultoo) December 1, 2022
Even if they catch up on AI, they can't fully deploy it without destroying the most valuable part of their business! https://t.co/jtq25LXdkj
Jego zdaniem firma ta, nawet jeśli „nadgoni badania w zakresie AI", nie będzie zdolna do uruchomienia produktów ją zawierających bez zniszczenia najbardziej dochodowej i wartościowej części swojego biznesu – wyszukiwarki Google.
Jak w późniejszych wpisach doprecyzował Buchheit, jego zdaniem pojawienie się generatywnej sztucznej inteligencji doprowadzi do zaniku wyszukiwarek w obecnej formie:
Also, since this received 1000x anticipated attention and is quoted/sensationalized in 100s of news articles, I should clarify:
— Paul Buchheit (@paultoo) January 31, 2023
My prediction is that _AI_ (not necessarily ChatGPT) will replace search, _maybe_ within the next two years (current AI not yet good enough)
Not this: pic.twitter.com/PPYLEyuyEe
O tym, że spółka rozpoznała ChatGPT jako zagrożenie dla swojej wyszukiwarki, również można było przeczytać na łamach CyberDefence24.pl w tym tekście , w którym opisaliśmy rozmowy toczące się między obecnymi menedżerami firmy a jej twórcami, którzy w Google'u już nie pracują, jednak wciąż konsultują z koncernem np. strategię wdrażania sztucznej inteligencji.
Jako uzupełnienie usług wyszukiwania natomiast modele językowe takie jak ChatGPT potraktował chiński odpowiednik Google – firma Baidu , która zapowiedziała, że udostępni użytkownikom swojego bota tego rodzaju jeszcze przed końcem obecnego kwartału. Oznacza to w skrócie, że Baidu musi nad nim pracować od co najmniej kilku lat.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].
Haertle: Każdego da się zhakować
Materiał sponsorowany