Strona główna
Kolejna skarga na ChatGPT. Przyczyną zła data urodzenia

Autor. Sanket Mishra / Pexels
Organizacja pozarządowa złożyła skargę do organu Unii Europejskiej wobec OpenAI. Ma to związek z nieprawdziwymi informacjami, jakie ChatGPT generuje na temat konkretnych osób. To nie pierwsze tego typu problemy tego giganta w UE.
Halucynacje ChatuGPT
Chatbot od OpenAI często generuje nieprawdziwe informacje, które są jednak podane w taki sposób, że wyglądają na autentyczne. To zjawisko powszechnie nazywane jest halucynacją.
Dla OpenAI stanowi natomiast wyzwanie w związku unijnym rozporządzeniem o ochronie danych osobowych (RODO).
Skarga organizacji pozarządowej
Organizacja pozarządowa Noyb złożyła skargę dotyczącą łamania przepisów RODO przeciwko Open AI do austriackiego organu ochrony danych. Skarga została złożona w imieniu anonimowego skarżącego (opisanego jako „osoba publiczna”), który stwierdził, że chatbot AI podał nieprawidłową datę jego urodzenia.
ChatGPT a RODO
Na mocy RODO obywatelom UE przysługuje pakiet praw związanych z informacjami na ich temat, w tym prawo do poprawienia błędnych danych. Noyb utrzymuje, że OpenAI nie wywiązuje się z tego obowiązku w odniesieniu do wyników działania chatbota.
Stwierdzono, że firma odrzuciła prośbę skarżącego o poprawienie nieprawidłowej daty urodzenia, odpowiadając, że jest to technicznie niemożliwe. Zamiast tego OpenAI zaproponowało usunięcie danych osobowych z wyników chatbotu.
noyb has filed a complaint against the ChatGPT creator OpenAI
— noyb (@NOYBeu) April 29, 2024
OpenAI openly admits that it is unable to correct false information about people on ChatGPT. The company cannot even say where the data comes from.
Read all about it here 👇https://t.co/gvn9CnGKOb
Polityka prywatności OpenAI
Polityka prywatności OpenAI stanowi, że użytkownicy, którzy zauważą, że ChatGPT wygenerował niedokładne informacje o nich, mogą przesłać „prośbę o sprostowanie” za pośrednictwem strony Privacy.openai.com lub wysyłać wiadomość e-mail na adres [email protected].
OpenAI zastrzega jednak: „biorąc pod uwagę techniczną złożoność działania naszych modeli, możemy nie być w stanie skorygować niedokładności w każdym przypadku”.
W takiej sytuacji Big Tech sugeruje użytkownikom zażądanie całkowitego usunięcia ich danych osobowych z wyników ChatuGPT, poprzez wypełnienie formularza internetowego.
OpenAI nie powinno decydować
Problem giganta AI polega na tym, że prawa wynikające z RODO nie są „do wyboru”. Mieszkańcy Europy mają prawo żądać sprostowania. Mają także prawo żądać usunięcia swoich danych. Jak zauważa Noyb - OpenAI nie może decydować, które z tych praw będą dostępne.
Źródło i przetwarzanie danych
Inne elementy skargi skupiają się na kwestiach związanych z przejrzystością RODO. Według Noyb OpenAI nie jest w stanie powiedzieć, skąd pochodzą dane osób fizycznych generowane przez ChatGPT, ani jakie dane o ludziach i w jaki sposób przechowuje chatbot.
Włochy wymusiły blokadę ChatuGPT
To nie pierwszy raz, kiedy OpenAI ma problemy w związku z RODO. W 2023 roku włoski rząd zablokował na krótko ChatGPT na terenie kraju, z powodu naruszenia przepisów o ochronie danych, o czym pisaliśmy na łamach CyberDefence24.pl. W związku z tym OpenAI było zmuszone do wprowadzenia pewnych zmian w swojej polityce prywatności.
Skarga w Polsce
Podobna skarga miała miejsce w Polsce we wrześniu 2023 roku. Urząd Ochrony Danych Osobowych (UODO) rozpatruje skargę dotyczącą ChatuGPT, w której skarżący zarzuca twórcy tego narzędzia - firmie OpenAI - to, że m.in. przetwarza ona dane w sposób niezgodny z prawem, nierzetelny, a zasady, na jakich się to odbywa, są nieprzejrzyste.
„Europejska Rada Ochrony Danych Osobowych powołała specjalną grupę roboczą do spraw OpenAI” – zaznaczał wtedy Jan Nowak, ówczesny prezes UODO.
AI w Unii Europejskiej
Jak zauważa serwis TechCrunch – podobne skargi mają duże znaczenie dla krajów Unii Europejskiej. Organy regulacyjne ds. ochrony danych mogą nakazać Big Techom zmiany w sposobie przetwarzania informacji.
Tak więc egzekwowanie RODO może wpłynąć na sposób, w jaki narzędzia generatywnej sztucznej inteligencji będą działać w UE.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].
Sztuczna inteligencja w Twoim banku. Gdzie ją spotkasz?
Materiał sponsorowany