Reklama

Technologie

„New York Times” pozwie OpenAI? Chodzi o trenowanie modelu sztucznej inteligencji

Czy wydawcy treści w sieci ruszą do batalii sądowej z twórcami chatbotów?
Czy wydawcy treści w sieci ruszą do batalii sądowej z twórcami chatbotów?
Autor. strona internetowa "The New York Times"

Nie ustaje dyskusja na temat wykorzystywania danych przez chatboty, które na ogólnodostepnych informacjach w sieci trenują swoje modele. Do głosu sprzeciwu wobec wykorzystania za darmo pracy m.in. dziennikarzy dołączył „The New York Times”, który prawdopodobnie pozwie w tej sprawie OpenAI.

Reklama

Modele sztucznej inteligencji przetwarzają i gromadzą dane wprowadzane przez użytkowników, codziennie ucząc się, by generować – przynajmniej w założeniu – lepszej jakości odpowiedzi. Jednak dodatkowo – trenowane na bazie ogólnodostępnych informacji z internetu, korzystają w rzeczywistości z pracy tysięcy autorów tekstów, blogów, twórców – w zamian nie płacąc za to ani złotówki. Stąd nie ustaje dyskusja na temat materiałów chronionych prawem autorskim, które są wykorzystywane do tzw. scrapingu.

Reklama

Czytaj też

Reklama

Tę patową sytuację może rozstrzygnąć dopiero sąd – chyba że wcześniej twórcy chatbotów dogadają się z wydawcami, tak jak to było m.in. w przypadku OpenAI i agencji Associated Press.

Jak podaje Cybernews.com, powołując się na NPR, dziennik „NYT” ma rozważać podjęcie kroków prawnych przeciwko OpenAI w kontekście ochrony praw własności intelektualnej . Strony miały podjąć próbę dojścia do porozumienia, ale po kilku tygodniach negocjacji - zakładających włączenie treści NYT do odpowiedzi generowanych przez chatbota w zamian za opłatę - miały one spełznąć na niczym.

Czytaj też

Teraz – jak podaje NPR, pod uwagę brany jest pozew. Natomiast „NYT” w sierpniu br. miał zaktualizować warunki korzystania z ich treści – wykorzystanie ich do szkolenia sztucznej inteligencji bez pisemnej zgody jest zakazane.

Kara dla OpenAI

Jak czytamy, kara nałożona na OpenAI przez sąd mogłaby wynieść maksymalnie 150 tys. dolarów (za każdą treść naruszającą prawo), jeśli było to spowodowane umyślnie. Minimalna kwota to z kolei 200 dolarów.

Jeśli dziennik stoczyłby batalię sądową z twórcami ChatuGPT, mogłoby to zachęcić innych wydawców do podjęcia podobnych kroków. A to z kolei wymusiłoby zmianę polityki firm tworzących chatboty – nie mogłyby one korzystać już z „ogólnodostępnych danych w internecie”, które są objęte prawem autorskim, choć w praktyce nieprzestrzeganym.

W tym miejscu warto przypomnieć, że problem nie dotyczy tylko OpenAI, ale przykładowo także modelu sztucznej inteligencji Google – jak pisaliśmy na łamach CyberDefence24.pl, gigant zaktualizował nawet swoją politykę prywatności i wprost zaznaczył, że „wykorzystuje publicznie dostępne informacje do szkolenia modelu AI”. Co więcej, niedawno firma ogłosiła, że w swojej wyszukiwarce wprowadza funkcję streszczania artykułów przez AI, co nie tylko doprowadzi do mniejszej odwiedzalności serwisów informacyjnych, ale może też przyczynić się do realnych spadków przychodów wydawców.

To nie pierwszy pozew o dane

Już pod koniec czerwca br. pisaliśmy, że firma OpenAI dostała pozew zbiorowy , w którym oskarżana jest o naruszenia prywatności użytkowników usług cyfrowych oraz łamanie praw autorskich.

Z kolei w połowie lipca br. pozew zbiorowy wobec Google trafił do sądu federalnego w San Francisco , który jest oskarżany o niezgodne z prawem wykorzystanie dużych ilości danych osobowych, a także materiałów objętych prawem autorskim do celów szkolenia sztucznej inteligencji.

Natomiast już w styczniu tego roku twórcy generatywnej sztucznej inteligencji Stable Diffusion – firma Stability AI – otrzymała kolejny pozew w związku z naruszeniami dotyczącymi praw autorskich do zamieszczanych w internecie prac. Tym razem od firmy Getty Images.

/NB

Czytaj też

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Komentarze

    Reklama