Technologie
Nowe narzędzie może utrudnić plagiaty. Dlaczego OpenAI nie chce go wypuścić?
OpenAI posiada narzędzie, które z dużą skutecznością wskazuje teksty napisane z użyciem modelu ChatGTP. Firma waha się jednak, czy je udostępnić.
Według osób zaznajomionych ze sprawą i wewnętrznych dokumentów, do których dotarł „The Wall Street Journal”, projekt jest gotowy do publikacji od około roku. „To tylko kwestia naciśnięcia przycisku” – powiedziała dziennikarzom jedna z wtajemniczonych osób.
W OpenAI od dwóch lat ma toczyć się wewnętrzna debata na temat tego, czy oddać narzędzie do powszechnego użytku.
Czytaj też
Studenci oszukują przy pisaniu prac
Generatywna sztuczna inteligencja może stworzyć cały esej lub pracę badawczą w ciągu kilku sekund, na podstawie jednego polecenia. Niestety z tej opcji często korzystają uczniowie i studenci. Kadry nauczycielskie oraz uniwersyteckie podkreślają, że to duży problem i apelują o udostępnienie narzędzia, które pomogłoby ukrócić oszustwa.
Takie narzędzie stworzyło OpenAI. Według projektu, opisanego przez „WSJ”, tekst generowany przez ChatGPT może zostać opatrzony cyfrowymi znakami wodnymi, niewidocznymi dla ludzkiego oka. Na tej podstawie oddzielne narzędzie mogłoby wykryć tekst powstały z użyciem chatbota OpenAI.
Czytaj też
OpenAI: narzędzie można obejść
Po doniesieniach medialnych OpenAI opublikowało aktualizację wpisu na blogu z maja br., w którym jest mowa o pracach nad nowym narzędziem.
Przedstawiciele spółki przyznają, że metoda jest bardzo dokładna i skuteczna w przypadku wykorzystania tekstu wygenerowanego przez AI jeden do jednego, a także sparafrazowanego. Jak ocenia portal Tech Crunch – byłby to przełom, ponieważ inne narzędzia obecne na rynku, nie są zbyt dokładne w wykrywaniu tekstu wygenerowanego przez AI.
Metodę znaków wodnych można jednak obejść, modyfikując tekst za pomocą innego modelu sztucznej inteligencji lub prosząc chatbot o wstawianie znaku specjalnego między każde słowo, a następnie usuwając te znaki. Narzędzie przestaje być skuteczne także w przypadku przetłumaczenia wygenerowanego tekstu na inny język.
Czytaj też
Dlaczego OpenAI waha się z publikacją?
OpenAI twierdzi, że wyżej wymienione metody, mogą zostać wykorzystane przez „złych aktorów”. Według przedstawicieli firmy, narzędzie mogłoby też mieć negatywny wpływ na niektóre grupy społeczne dla których angielski nie jest językiem ojczystym.
W jaki sposób? To nie zostało sprecyzowane. Trudno więc zrozumieć tego rodzaju tłumaczenia. Być może firmie nie zależy na wypuszczeniu skutecznego narzędzia do wykrywania tekstu powstałego z użyciem GenAI, bo wskutek tego… mogłoby spaść zainteresowaniem ChatemGPT.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].