Technologie
OpenAI zamyka narzędzie do wykrywania treści wygenerowanych przez AI
Treści wygenerowane przez sztuczną inteligencję wzbudzają wiele wątpliwości pod względem ich prawdziwości – wciąż nic nie zastąpi wiedzy i doświadczenia człowieka, choć z pewnością AI może usprawnić pracę. Tymczasem OpenAI zamknęło narzędzie, które miało pomóc w odróżnieniu materiałów generowanych przez człowieka i chatbota. Powodem ma być jego niewielki poziom dokładności.
Pod koniec stycznia tego roku OpenAI, czyli twórca ChatuGPT, chwaliło się wprowadzeniem narzędzia, które służyło do identyfikowania tekstu wygenerowanego przez sztuczną inteligencję i odróżnienia go od materiałów przygotowanych przez człowieka.
Jednak zaledwie kilka miesięcy później – w swoim poście na blogu firma poinformowała, że zamyka narzędzie ze względu na niski wskaźnik jego dokładności.
„Od 20 lipca 2023 r. klasyfikator AI nie jest już dostępny ze względu na niski wskaźnik dokładności. (...) Obecnie testujemy bardziej skuteczne techniki badania pochodzenia tekstu, a także zobowiązaliśmy się do opracowania i wdrożenia mechanizmów, które pozwolą użytkownikom zrozumieć, czy treści audio lub wideo są generowane przez sztuczną inteligencję” – podała firma w oświadczeniu, w zaktualizowanym poście na blogu. Na razie nie podano jednak szczegółów na temat ewentualnego, nowego rozwiązania.
Czytaj też
Niska wykrywalność
OpenAI uzasadniła, że zamknęła narzędzie, ponieważ nie było „w pełni wiarygodne”. Poprawnie miało identyfikować tylko 26 proc. tekstu w języku angielskim napisanego przez AI lub „prawdopodobnie napisanego”. Z kolei w 9 proc. błędnie wskazywał, że tekst został wygenerowany przez chatbota, podczas gdy przygotował go człowiek.
Już w styczniu twórcy ChatuGPT uzasadniali, że wypuścili tak niedoskonałe narzędzie z tego względu, że chcieli uzyskać informację zwrotną od użytkowników. Prace nad tego typu rozwiązaniami mają być kontynuowane.
Narzędzie Intela
Jak pisaliśmy na łamach CyberDefence24.pl, firma Intel także wierzy, że technologia może pomóc w wykrywaniu treści wygenerowanych przy pomocy sztucznej inteligencji. Ich rozwiązanie ma natomiast wykrywać deepfake, czyli fałszywe audio i/lub wideo.
Zespół testuje system „FakeCatcher”, działający w czasie rzeczywistym w oparciu o procesory Intel Xeon. Ma on między innymi analizować ruch gałek ocznych, spojrzenie czy zmiany w przepływie krwi, których nie ma w twarzach tworzonych przez technologię. Jak wynika z dotychczasowych testów - wciąż sporo jest jeszcze do poprawienia. Jednak można się spodziewać, że kolejne firmy będą podejmowały próby, by stworzyć technologię, która będzie potrafiła wykryć fałszywki - już zalewające internet.
Jak radzić sobie z deepfake?
Z pewnością treści wygenerowane przez sztuczną inteligencję - w tym te celowo, by wprowadzić odbiorcę w błąd - powinny być oznaczane. Nie można mieć złudzeń, że to rozwiąże problem, jednak oznaczanie materiałów np. przy pomocy znaku wodnego może zapobiec nadużyciom choć częściowo i w ten sposób zwiększyć ochronę użytkowników. Więcej na ten temat pisaliśmy tutaj.
Dlaczego to ważne? Jak wykazywaliśmy w analizie, w sieci już pojawiają się treści wygenerowane przez AI niskiej jakości i bez należytej weryfikacji, tylko po to, by zarabiać na reklamach. Znaczenie ma skala i prędkość "produkcji" tego typu contentu, kosztem dostarczania informacji użytkownikom.
/NB
Czytaj też
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].