Reklama

Polityka i prawo

Federalna Komisja Handlu zajmie się „halucynacjami” ChatuGPT

Autor. Emiliano Vittoriosi / Unsplash

ChatGPT znalazł się pod lupą Federalnej Komisji Handlu (FTC) USA. Organ chce ustalić, czy przez to, że sztuczna inteligencja OpenAI często podaje fałszywe informacje i „halucynuje”, nie doszło do szkód dla użytkowników.

Reklama

Federalna Komisja Handlu poinformowała, że postępowanie wyjaśniające dotyczące ChatuGPT firmy OpenAI będzie koncentrowało się na kwestii tego, czy firma Sama Altmana „angażowała się w nieuczciwe lub wprowadzające w błąd praktyki, które mogły stwarzać ryzyko zagrożenia dla konsumentów, w tym - strat reputacyjnych".

Reklama

Chodzi tu o „halucynacje" dużego modelu językowego OpenAI, który często produkuje teksty - na przykład na temat znanych osób - zawierające fałszywe informacje, przekładające się na straty wizerunkowe i ryzyko utraty reputacji. Pisaliśmy o tym m.in. w tym materiale .

Czy ChatGPT ubliża i zniesławia?

Dziennik „Wall Street Journal" podaje, że jedno z pytań, które FTC przekazała firmie OpenAI, domaga się od firmy aby „opisała szczegółowo wszystkie kroki, które podjęto celem zaadresowania i mitygacji ryzyka stwarzanego przez fakt, że duży model językowy może wygenerować twierdzenia na temat prawdziwych osób, które są fałszywe, wprowadzające w błąd lub ubliżające" ich godności.

Reklama

Szefowa Federalnej Komisji Handlu Lina Khan wcześniej deklarowała, że jest zaniepokojona tym, że ChatGPT i inne aplikacje oparte o sztuczną inteligencję nie mają żadnych ram bezpieczeństwa, gdy mowa o danych, które mogą pozyskać, ani o sposobach ich przetwarzania .

„Słyszeliśmy już o przypadkach, kiedy wrażliwe dane różnych osób pokazują się w odpowiedzi na zapytania wpisywane (do ChatuGPT - red.) przez kogoś innego" - powiedziała Khan. „Słyszeliśmy o oszczerstwach, zniesławieniach, a także po prostu oczywiście nieprawdziwych rzeczach, które się ukazują (w odpowiedziach bota - red.). To właśnie rodzaj nadużyć, o który się martwimy" - dodała.

FTC ma swoich krytyków

„WSJ" pisze, że nie wszyscy są zachwyceni postępowaniem wszczętym przez Federalną Komisję Handlu.

Zdaniem krytyków działań organu, FTC kolejny raz wypuszcza się na zbyt szerokie wody - w szczególności po serii odwołań od orzeczeń, które zapadały w sprawach antytrustowych dotyczących Big Techów. Każde wyzwanie rzucone orzeczeniom organu pod wodzą Khan to dla niego cios - tu jednak nie powinno być zdziwienia, bo firmy technologiczne, swego czasu cieszące się niepisanym immunitetem w USA, obecnie są przedmiotem dużego zainteresowania Federalnej Komisji Handlu, a jej decyzje są dla nich biznesowo i wizerunkowo niekorzystne - stąd odwołania.

Jeden z lobbystów zrzeszonych w ramach organizacji Chamber of Progress, która gromadzi przedsiębiorców z branży nowych technologii, w tym sztucznej inteligencji, w rozmowie z dziennikiem podał w wątpliwość to, czy FTC powinna zajmować się kwestiami takimi, jak straty reputacyjne dla kogoś  pokrzywdzonego przez halucynacje ChatuGPT . Jego zdaniem to kwestie wchodzące raczej w obszar wolności słowa i jej regulacji, nie zaś zajęć organu, do tej pory koncentrującego się wokół kwestii antytrustowych, jak i naruszeń prywatności.

Samuel Altman, szef OpenAI, odniósł się do kwestii postępowania wyrażając rozczarowanie i powiedział, że postępowanie FTC nie pomaga w budowaniu zaufania do organu. Zapowiedział jednak, iż będzie z urzędem współpracować.

Czego chce się dowiedzieć FTC?

Firma Sama Altmana dostała od organu pytania m.in. o praktyki z zakresu bezpieczeństwa danych, działania marketingowe, praktykę szkolenia modeli sztucznej inteligencji oraz reguły przetwarzania danych osobowych użytkowników.

Pytania skierowane do OpenAI w pewnym sensie stanowią odbicie obaw, które amerykańska administracja żywi wobec szybkiego rozwoju sztucznej inteligencji. Jak pisze „WSJ", politycy obawiają się nie tylko tego, że duże modele językowe mogą kogoś zniesławiać czy mówić nieprawdę na temat poszczególnych osób publicznych, ale także wykorzystania ich do dezinformacji i manipulacji społeczeństwem w obliczu nadchodzących wyborów prezydenckich.

Ryzyko jest też widziane w możliwości utrwalania postaw dyskryminacyjnych i stereotypów przez odpowiedzi modeli, a także w tym, że mogą one być wykorzystywane do popełniania przestępstw - np. finansowych, jak i stanowić w przyszłości zagrożenie dla kształtu rynku pracy, przez co pogłębione zostaną nierówności społeczne i finansowe.

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Komentarze

    Reklama