Polityka i prawo
#CyberMagazyn: Sztuczna inteligencja może naruszać prawa twórców w różny sposób [WYWIAD]
„Sztuczna inteligencja raczej nie zagrozi koncepcji istnienia praw autorskich. Może jednak naruszać prawa twórców, których praca twórcza jest chroniona właśnie przez przepisy dotyczące prawa autorskiego” - komentuje dla CyberDefence24.pl Michał Nosowski, radca prawny specjalizujący się w problematyce prawa nowych technologii i ochrony danych osobowych.
Popularyzacja sztucznej inteligencji może dokonać ogromnych zmian w obszarze praw autorskich. Stworzone przez człowieka teksty, dźwięki, grafiki mogą być zastosowane do przyspieszenia rozwoju AI. Czy oznacza to, że prawa twórców są dziś w niebezpieczeństwie, w jakim jeszcze nie były?
Czytaj też
Prawa autorskie zagrożone?
Zapraszamy do przeczytania rozmowy red. Michała Górskiego z radcą prawnym, Michałem Nosowskim.
Michał Górski, CyberDefence24: Czy sztuczna inteligencja może stanowić zagrożenie dla praw autorskich?
Michał Nosowski: Z perspektywy prawa, sztuczna inteligencja jest na pewno wyzwaniem, biorąc pod uwagę sposób jej zastosowania. Przepisy dot. prawa autorskiego nie były projektowane z myślą o potencjalnej możliwości korzystania z systemów sztucznej inteligencji, które przetwarzają i generują duże ilości tekstów lub obrazów. To zaś oznacza, że stare reguły prawne musimy stosować do nowych rozwiązań, co powoduje różne problemy interpretacyjne, konflikty itp. O ile samej koncepcji istnienia praw autorskich sztuczna inteligencja raczej nie zagrozi, to może oczywiście naruszać prawa twórców, których praca twórcza jest chroniona właśnie przez przepisy dot. prawa autorskiego.
Dochodzi więc do sporu: z jednej strony osoby zajmujące się szeroko pojętą pracą kreatywną uznają, że ich interesy w jakiś sposób są zagrożone – oto bowiem na rynku pojawia się konkurencyjny gracz (w postaci np. generatora obrazów opartego o AI), który jest szybszy i tańszy. Co więcej, ten gracz „nauczył się" tworzyć „swoje" treści, analizując dziesiątki tysięcy grafik stworzonych przez prawdziwych ludzi – w tym tych, którzy teraz mogą obawiać się zmniejszenia popytu na swoje dzieła. Z drugiej strony mamy zwolenników rozwoju technologicznego, którzy widzą pozytywne aspekty tworzenia zaawansowanych rozwiązań opartych o sztuczną inteligencję i chcą, aby ich twórcy mieli prawną możliwość korzystania z obecnych zasobów wiedzy.
Prawo tego konfliktu nie rozstrzyga jednoznacznie. Już teraz posiadamy natomiast różne wskazówki, zasady lub szczegółowe regulacje, które mniej więcej pozwalają nam wyznaczyć pewne granice dot. tego, co można za pomocą sztucznej inteligencji robić, a czego nie. Takimi regulacjami są np. zasady dot. dozwolonego użytku osobistego w Polsce, albo tzw. doktrynafair use w USA, która pozwala w pewnych sytuacjach wykorzystywać rozpowszechnione utwory bez zgody twórcy. Kluczowym problemem jest w tym momencie to, w jakim zakresie stosowanie tych reguł „rozciąga się" np. na działania związane z trenowaniem rozwiązań sztucznej inteligencji.
Czytaj też
Plagiat i sztuczna inteligencja
Kiedy będziemy mogli mówić o tym, że dane prawa autorskie zostały złamane przez AI? Będzie to zależeć od indywidualnego podejścia danego twórcy?
Do naruszenia praw twórcy może dojść w przypadku, gdy sztuczna inteligencja „popełni" plagiat, czyli albo po prostu powieli istniejący utwór danego twórcy, albo stworzy nowy, który jednak będzie w znacznym stopniu opierał się na takim wcześniejszym dziele danego twórcy. Precyzyjne rozróżnienie tego, kiedy dochodzi do plagiatu, a kiedy tylko do „inspiracji" utworem, zawsze wymaga badania konkretnych przypadków – może się bowiem zdarzyć tak, że sztuczna inteligencja stworzy treść podobną do utworu danego autora, która jednak będzie na tyle odróżniająca się, że do plagiatu nie dojdzie.
W przypadku sztucznej inteligencji prawa twórców mogą być również naruszane w inny sposób . Przykładowo, zbudowanie bazy utworów (np. stworzonych przez jakichś artystów) i wykorzystanie jej w procesie trenowania sztucznej inteligencji również stanowi wykorzystanie takich utworów i może stanowić złamanie prawa. W USA toczy się obecnie kilka procesów, wytoczonych np. przez grupy twórców, które uznały, że wykorzystanie ich dzieł do trenowania sztucznej inteligencji było nieuprawnione.
Przykładem takiego procesu jest np. pozwanie przez programistów twórców rozwiązania GitHub Copilot, które ułatwia tworzenie kodu źródłowego oprogramowania z wykorzystaniem podpowiedzi generowanych przez sztuczną inteligencję. Zdaniem osób, które pozwały twórców Copilota, niektóre podpowiedzi są w istocie kopiami stworzonych przez nich utworów, chronionych prawami autorskimi, które zamieściły w ramach platformy GitHub. Sam fakt opublikowania utworu na tej platformie nie uprawnia jednak do wykorzystania tych utworów w rozwiązaniu Github Copilot bez np. oznaczania twórców. Github natomiast uznaje, że miał prawo do wykorzystania takich treści w ramach procesu uczenia się, a generowane przez rozwiązanie Copilot fragmenty kodu nie naruszają niczyich praw.
Spór ten toczy się obecnie przed sądem w USA i będzie miał duże znaczenie dla kwestii dalszego rozwoju AI - tzn. wyroki w tej i podobnych sprawach będą stanowiły zalążek, który wskaże jak prawo podchodzi do kwestii wykorzystania istniejących utworów w procesie uczenia sztucznej inteligencji.
Co w momencie, gdy AI będzie „nieświadomie" korzystać z zastrzeżonych treści, w konsekwencji doprowadzając do naruszenia praw własności intelektualnej? Czy da się podjąć działania, które sprawią, że do takich sytuacji nie będzie dochodziło?
Nawet jeśli AI w sposób nieświadomy korzysta z jakichś utworów, np. analizując wszystkie możliwe dane, obrazy, treści pobrane z Internetu, to nie wyklucza to potencjalnej odpowiedzialności za naruszenie praw autorskich. W takim przypadku odpowiedzialność ponosiłby podmiot, który odpowiada za tworzenie i działanie danego rozwiązania opartego o sztuczną inteligencję – np. spółka albo fundacja, która prowadzi badania nad rozwojem takich algorytmów.
Kwestia zabezpieczenia się przed takim naruszeniem jest sprawą trudną – przede wszystkim, obecnie nie ma jednolitego stanowiska czy takie działania w ogóle stanowią naruszenie czyichś praw autorskich. Zakładając, że tak, teoretycznie dodatkowe zabezpieczenia nie są konieczne – bo prawo chroni utwory niezależnie od tego, czy twórca wyraźnie określił zakres ich dozwolonego wykorzystania czy nie. Innymi słowy, opublikowanie obrazka w internecie nie oznacza, że każdy może z niego skorzystać. Jeżeli więc prawa twórcy zostałyby naruszone, to mógłby on dochodzić od podmiotu, który odpowiada za działanie rozwiązania opartego o sztuczną inteligencję np. odszkodowania.
W praktyce, samo oparcie ochrony swoich utworów o przepisy prawa autorskiego jest dla wielu twórców niewystarczające. Dlatego np. używają oni w ramach swoich grafik/zdjęć znaków wodnych, tak aby podkreślić, że dany utwór jest chroniony i nie zgadzają się na jego wykorzystanie bez ich uprzedniej zgody. W rzeczywistości wiemy, że niektórzy twórcy rozwiązań opartych o AI używali również zdjęć chronionych znakiem wodnym w celu uczenia ich algorytmów. Co więcej, charakterystyczne znaki wodne były również widoczne w ramach obrazów generowanych przez AI, a to stanowi silny argument za tym, że doszło do wykorzystania danego obrazu w procesie uczenia algorytmu, co z kolei wspiera teorię o naruszeniu praw twórców.
Dodatkowo, kwestia ta częściowo została uregulowana w unijnej dyrektywie o prawie autorskim na jednolitym rynku cyfrowym. W pewnym uproszczeniu mówi ona o tym, że podmioty zajmujące się tworzeniem różnych innowacyjnych rozwiązań mogą korzystać z rozpowszechnionych np. w internecie utworów w celu ich analizy i poszerzania istniejącego stanu wiedzy. Taka eksploracja tekstów i danych stanowi natomiast podstawę do budowania baz, na podstawie których trenowana jest sztuczna inteligencja. Dyrektywa wskazuje, że jeżeli ktoś nie chce, aby jego utwory były wykorzystane w tym celu, może wyraźnie zastrzec, że nie zgadza się na takie wykorzystanie, np. poprzez zamieszczenie w ramach strony internetowej pliku robots.txt o odpowiedniej treści.
W praktyce, z uwagi na to, że stosowanie takich rozwiązań technicznych nie jest powszechne, powyższe uregulowanie stanowi argument dla twórców rozwiązań opartych o sztuczną inteligencję, że mogą korzystać oni z powszechnie dostępnych w internecie utworów w celu uczenia swoich rozwiązań. Wskazany przepis dyrektywy stanowi więc furtkę do analizowania danych dla twórców rozwiązań opartych o sztuczną inteligencję. Z drugiej strony przepis ten ogranicza prawa twórców do ochrony ich utworów.
Czytaj też
Nadążyć nad zmianami
Czy dynamiczny rozwój sztucznej inteligencji sprawia, że istniejące prawo nie będzie nadążać nad zachodzącymi zmianami?
Prawo z reguły jest dostosowywane do istniejącego stanu rzeczy, oczekiwań społecznych itp. Tak jest również w przypadku sztucznej inteligencji. Obecnie coraz rzadziej mówimy o tym, czy mamy ją regulować. Dyskusje toczą się raczej nad tym, jak to zrobić. Problem rozdźwięku pomiędzy systemem prawnym a różnymi nowoczesnymi technologiami będzie coraz poważniejszy, bo rozwój tych technologii następuje coraz szybciej. Innymi słowy, takie sytuacje gdzie istnieją nowe, istotne dla społeczeństwa rozwiązania techniczne, które nie są uregulowane prawnie, mogą się zdarzać coraz częściej.
Co w obecnej sytuacji mogą zrobić instytucje państwa? Reagować na bieżąco na występujące precedensy czy może lepszym rozwiązaniem byłoby przygotowanie odpowiednich przepisów już teraz?
Istotnie postęp technologiczny wymusza to, że prace nad takimi przepisami powinny już się toczyć – i tak rzeczywiście jest.
Proces przygotowywania przepisów, które dotyczyłyby sztucznej inteligencji trwa w Unii Europejskiej już od jakiegoś czasu , głównie w ramach tzw. AI Act. To rozporządzenie, które ma na celu uregulowanie zasad tworzenia rozwiązań opartych o sztuczną inteligencję i korzystania z nich. Problemem jest to, że tworzenie prawa na poziomie unijnym wymaga osiągania konsensusu pomiędzy różnymi grupami, a to niestety trwa. Dlatego też prace nad tego typu aktem prawnym trwają zwykle kilka lat. Dodatkowo, pierwsze wersje rozporządzenia koncentrowały się na regulowaniu systemów AI w ramach niektórych branż, uznawanych za ryzykowne – np. w odniesieniu do autonomicznych pojazdów, rozpoznawania twarzy w oparciu o biometrię albo wykorzystania sztucznej inteligencji do zwalczania przestępczości. W międzyczasie pojawiły się powszechnie dostępne rozwiązania, takie jak ChatGPT , które same w sobie nie są uznawane za ryzykowne.
Pomimo tego, ich wykorzystanie powoduje pojawianie się różnych problemów prawnych, np. związanych z prawami autorskimi albo odpowiedzialnością. W konsekwencji, pojawiają się pomysły, aby dodać do rozporządzenia dodatkowe regulacje, które będą rozwiązywały również te problemy. To zaś wymaga zmiany treści projektu, co skutkuje kolejnymi opóźnieniami w przygotowaniu nowego prawa.
Michał Nosowski - Jest partnerem w kancelarii BYTELAW w Toruniu. Prowadzi bloga o prawie nowych technologii - wsroddanych.pl.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].