Technologie
Jak uregulować sztuczną inteligencję? Prawniczka: "Wyścig skazany na porażkę"
„Jestem wielką zwolenniczką, by próbować łatać to, co się da już istniejącą legislacją, zdając sobie sprawę, że wyścig między technologią a prawem jest z definicji przegrany. Rozwój technologiczny to wspaniała rzecz. Ale jednocześnie bardzo mi przykro, że za tempem rodzenia się nowych wyzwań i problemów prawo nie zawsze będzie mogło nadążyć” - mówi w wywiadzie dla CyberDefence24.pl dr Maria Dymitruk, radczyni prawna, counsel w firmie doradczej Olesiński i Wspólnicy, specjalizująca się w prawie IT oraz prawie AI.
Dr Maria Dymitruk to radczyni prawna, counsel w firmie doradczej Olesiński i Wspólnicy, specjalistka prawa IT oraz prawa sztucznej inteligencji, zaangażowana w projekty badawcze na styku AI i prawa, w tym m.in. „Conflict Resolution with Equitative Algorithms II”, „Digital communication and safeguarding the parties« rights: challenges for European civil procedure” oraz „Small Claims Analysis Net II”.
I część wywiadu na temat regulacji sztucznej inteligencji z dr Marią Dymitruk znajduje się pod linkiem
Nikola Bochyńska, redaktor naczelna CyberDefence24.pl: W Polsce obecne regulacje są wystarczające, czy pojawiają się wątpliwości, jak interpretować pewne przepisy pod kątem takich dylematów jak sztuczna inteligencja?
Dr Maria Dymitruk, radczyni prawna, counsel w firmie doradczej Olesiński i Wspólnicy, specjalizująca się w prawie IT oraz prawie sztucznej inteligencji: W Polsce są same wątpliwości. Naukowo nie zajmuję się stricte obszarem własności intelektualnej, ale obserwuję te dyskusje i mam z nimi do czynienia jako praktyk. To jest tak niebagatelny problem, że czego się właściwie nie dotknie na styku własności intelektualnej i sztucznej inteligencji, to okazuje się, że wymyślone konstrukty nie pasują do obecnej rzeczywistości.
W systemach kontynentalnych, takich jak Polska sama koncepcja, że autorem jest tylko człowiek, a prawo autorskie chroni romantyczną więź twórcy z jego dziełem, w kontekście generatywnej sztucznej inteligencji dezaktualizuje się w drastyczny sposób. Tradycyjnie tworzonych dzieł będzie coraz mniej. Za to pojawi się kwestia ochrony dzieł generowanych lub współgenerowanych przez AI. Podam przykład: jeżeli mogę skrócić proces twórczy, chociażby tworzenia koncepcji identyfikacji wizualnej mojego przedsiębiorstwa, z trzech tygodni do dwóch godzin i zrobić to za półdarmo, to jest bardzo pociągająca wizja.
Jednak z drugiej strony, utrata ochrony prawnej w związku z faktem użycia AI może być bardzo bolesna – szczególnie, jeśli moja konkurencja stworzy identyczną/podobną identyfikację wizualną. Zwykle w takim przypadku działały bowiem instrumenty z prawa autorskiego, a może okazać, że tutaj one nie zadziałają. W praktyce pojawią się problemy typu: Gdzie jest granica pomiędzy AI a mną jako współautorem generowanego dzieła? Jak i komu przypisywać autorstwo wytworów tworzonych przy wsparciu AI? To są tego typu zagadnienia, na które w tej chwili nie ma prostych odpowiedzi.
Wracając do pytania: z pewnością pojawi się potrzeba nowej regulacji. Jesteśmy na etapie pilnej potrzeby regulacyjnej z perspektywy biznesowej i dość obfitej dyskusji naukowej w tym zakresie. A kiedy się to przełoży na twardą legislację? Zobaczymy.
Biorąc pod uwagę legislację i branżę cyberbezpieczeństwa, to wystarczy spojrzeć na przykład nowelizacji KSC i można mieć spore wątpliwości. Być może w nowym Sejmie coś się zmieni i będzie on pracował sprawniej.
Wiemy, jak czasami prawo jest tworzone. Podzielam oczekiwanie co do sprawności i rzetelności procesów legislacyjnych.
Czytaj też
Do 2026 roku „wyczerpie się” wysokojakościowa treść w internecie?
W środowisku medialnym już trwa dyskusja, kto i czy w ogóle ma prawo zlecać pisanie tekstów ChatowiGPT. Czy jeśli np. ktoś zlecił napisanie opracowania tekstu na podstawie innego - czy to już plagiat? Kto właściwie jest twórcą takiego materiału i czy to jeszcze dziennikarstwo? W którą stronę pod tym kątem pani zdaniem pójdziemy, czy w ten sposób nie zaleją nas treści wygenerowane przez sztuczną inteligencję i co na to prawo?
Dotyka pani arcyważnego problemu oznaczania treści generowanych automatycznie. Minął nieco ponad rok od upowszechnienia się ChatuGPT. Czy w pewnym momencie nie obudzimy się w internecie, który zaleją generowane treści? A może już w nim funkcjonujemy? To miałoby bardzo wiele konsekwencji. Jako użytkownicy prawdopodobnie nie chcielibyśmy być zalewani tego typu materiałami, szczególnie jeżeli nie wiedzielibyśmy, które są wygenerowanie sztucznie, a które pochodzą od innych ludzi.
Ten problem jest również bardzo ważny w kontekście trenowania przyszłych modeli AI. Jeżeli zalejemy internet niskojakościowymi treściami, to nie będziemy w stanie tworzyć dobrych modeli w przyszłości. Jakość modelu zależy bowiem od jakości danych użytych do jego uczenia. Pojawiają się predykcje, że do 2026 roku „wyczerpie się” wysokojakościowa treść w internecie. Być może dlatego kluczowe było zagranie va banque przez OpenAI - w momencie, kiedy mieliśmy „czysty internet” wypełniony jedynie treściami ludzkimi, domyślnie wyższej jakości. Chodzić więc mogło o to, aby wytrenować modele w oparciu o możliwie najlepszej jakości dane, bo za chwilę możemy obudzić się w rzeczywistości wypełnionej sztucznie generowanymi treściami tekstowymi i graficznymi. A niska jakość contentu przekłada się niską jakość samego model AI. Dostępność wysoko jakościowych danych jest kluczowa z perspektywy budowania przewagi konkurencyjnej na rynku AI.
Badanie m.in. organizacji NewsGuard już wykazało, że tworzone są serwisy, które w całości opierają się na AI, bez żadnej kontroli człowieka. Zarabiają na reklamach, a ich odkrycie ma miejsce tylko wtedy, kiedy model się pomyli i użyje sformułowania: „jako model sztucznej inteligencji”.
Obecnie jako użytkownicy sieci, jako prawnicy, jako dziennikarze, jako ktokolwiek na świecie - nie mamy instrumentu, żeby wiedzieć, co jest treścią generowaną automatycznie, a co nie. W tym kontekście toczy się wielka dyskusja, również z Aktem o sztucznej inteligencji w tle: „czy nie wprowadzić ogólnego nakazu oznaczania treści generowanych automatycznie?”.
Łatwo zadeklarować, że treści generowane mają był oznaczane jako pochodzące od AI. Trudniejsze pozostaje jednak stworzenie mechanizmów, które faktycznie będą skuteczne w dokonywaniu takich rozróżnień. Jest to wykonalne, o ile mamy do czynienia z contentem wizualnym. Natomiast jest to znacznie trudniejsze, jeżeli chodzi o generowanie tekstu. W związku z tym, nawet wprowadzenie obowiązku prawnego oznaczania treści generowanych automatycznie nie rozwiązałoby problemu, jeżeli nikt nie byłby w stanie z wystarczającym poziomem pewności zweryfikować źródła treści: algorytmicznego albo ludzkiego.
Natomiast pytanie, czy taki obowiązek prawny w ogóle się pojawi, pozostaje otwarte. Pamiętajmy, że jesteśmy na końcu trudnej ścieżki legislacyjnej Aktu w sprawie sztucznej inteligencji. Jesteśmy po zakończonym trilogu politycznym, czyli serii spotkań trójstronnych pomiędzy Komisją Europejską, Radą i Parlamentem Europejskim. Zakończyły się one zawarciem porozumienia politycznego w grudniu 2023 r., ale do dzisiaj nie znamy finalnej treści rozporządzenia. Trwają bowiem nadal trilogi techniczne. Nie jest więc pewne, jak w przepisach tych uregulowany zostanie obowiązek oznaczania treści pochodzących od AI i czy nie zostanie on przypadkiem ograniczony do deepfake’ów. Bardzo kibicowałabym jako użytkownik internetu, aby jak najszerszy obowiązek w tym zakresie jednak się pojawił. Natomiast oczywiście AI Act jak nie jest jedynym miejscem, w którym taki wymóg można zawrzeć.
Przy okazji opowiem anegdotę. Sama zapytałam generator sztucznej inteligencji: „czy w prawie unijnym istnieje obowiązek transparentności co do automatycznie generowanego tekstu?”. Otrzymałam odpowiedź zawierającą halucynacje, zupełnie nieprawdziwą, wskazującą, że oczywiście, że jest taki obowiązek w Digital Services Act (Akcie o usługach cyfrowych - red.). Pierwsza moja reakcja była taka: „czytałam tyle razy DSA i chyba jednak nie doczytałam; sprawdzę ponownie”. Ale oczywiście obowiązku oznaczania treści generowanych przez AI tam nie znalazłam. DSA w ogólnie nie wspomina o generatywnej AI, a więc odpowiedź chatbota była czystą halucynacją.
Natomiast im dłużej czekamy z tego typu przepisami i obowiązkiem transparentności, tym dłużej wszyscy robią, co chcą. A oznaczanie treści generowanych przez AI jest oparte na dobrowolności lub wymogach wewnętrznych konkretnej platformy internetowej. Jako użytkownicy sieci nie wiemy więc, w jakiej rzeczywistości jesteśmy: czy prawdziwej, czy wygenerowanej; czy mamy do czynienia z twórczością ludzką czy generowaną automatycznie. Im dłużej ten okres będzie trwał, tym poważniejsze będą jego konsekwencje. A pozostaje to istotne także ze społecznego punktu widzenia.
Nie jestem socjologiem, ale mam podejrzenie, że to odbije się na tym, jak użytkownicy odbierają internet. Na to, co w nim robią i będą robić. Po prostu w sieci robi się coraz większy śmietnik. Rewolucją dla internetu miała być ACTA, miał być DSA, by jakoś „wyprostować” aktywność w sieci. Stale jednak borykamy się z nowymi wyzwaniami online. A określanie sprawnych ram legislacyjnych pozostaje – jak już wskazywałam – trudne. A to chociażby dlatego, że nie wiemy, czy za miesiąc ktoś kolejny nie wypuści czegoś, co spowoduje zmiany w przestrzeni wirtualnej na skalę ChatuGPT.
Dr Maria Dymitruk
Czytaj też
Sztuczna inteligencja zagrożeniem na rynku pracy
Całkiem niedawno twórcy ChatuGPT ogłaszali, że tygodniowo korzysta z niego 100 mln użytkowników.
Pamiętajmy, że rynek generatywnej AI zaczyna się rozdrabniać. Na początek z uwagi na brak bezpośrednich konkurentów w stosunku do produktu OpenAI wyglądał na zmonopolizowany, ale z czasem dołączyli inni gracze. Google tak szybko pędził z Bardem, że zaczął wizerunkową wtopą, ponieważ w materiale promocyjnym nowego chatbota pojawiła się halucynacja na temat teleskopu Jamesa Webba. A jak za rok będzie wyglądał rynek narzędzi generatywnej AI i czy jakiś nowy istotny gracz nie pojawi się w branży i nie wymyśli czegoś nowego? Tego nie wiemy.
Być może to pytanie z cyklu filozoficznych, dotyczy także branży medialnej. Pojawia się twierdzenie, że chatboty zastąpią dziennikarzy lub też wyprą media workerów z rynku. Czy wśród prawników pojawia się taka zagwozdka? Czytałam zagraniczne artykuły, które opisywały przykład, w którym sędzia wydał wyrok w oparciu o pozew przygotowany przez chatbota. W branży takie przypadki traktujecie raczej jako anegdotę czy realny problem?
Pytanie o przyszłość naszych zawodów w kontekście rozwoju sztucznej inteligencji jest wspólne naszym zawodom. Czy jesteśmy dziennikarzami, czy prawnikami, czy lekarzami – AI pojawia się w tych zawodach i rodzi pytania o to, jak będą wyglądać nasze profesje za 5 czy 10 lat. I ta dyskusja również w naszej prawniczej branży się toczy. Pojawiła się nie wraz z przełomem wywołanym dużymi modelami językowymi, lecz dużo wcześniej. Pierwsze rozważania na temat tego, czy można zautomatyzować rozumowanie prawnicze, a w efekcie zastąpić prawników, pojawiły się już w latach 40. poprzedniego wieku. Dojrzalsza dyskusja naukowa na ten temat toczy się od lat 80., a obecnie jest to pytanie zadawane nie tylko przez naukowców, ale przez wszystkich.
Jeśli prześledzić nagłówki medialne, to można mieć takie wrażenie, że prawnicy autentycznie boją się tempa automatyzacji ich pracy. Natomiast obawy, napędzane grafikami robotów ubranych w sędziowskie togi, nie są do końca uzasadnione. Rozumowania prawnicze są trudno algorytmizowane. Nie da się łatwo odtworzyć rozumowania prawniczego przy wykorzystaniu AI.
Równolegle toczy się także dyskusja, jak prawnicy powinni wykorzystywać AI oraz czy rynek generatywnej AI nie tworzy alternatywy w stosunku do tradycyjnego rynku usług prawnych. Tu faktycznie tworzy się pole do nadużyć, a obawy związane z tym, że część klientów może wybrać np. chatbota zamiast prawnika, pozostają uzasadnione. Oczywiście – jeśliby spojrzeć z formalnego punktu widzenia – regulaminy narzędzi AI zastrzegają, że nie służą one udzielaniu porad prawnych, a prawo stanowi „obszar czerwony”. Ale w praktyce to, co jest zaznaczone małym druczkiem w regulaminie, łatwo może przeciętnemu użytkownikowi umknąć, a jednocześnie zdejmuje to ewentualną odpowiedzialność z dostawcy.
Wracając jednak do przyszłości dziennikarskiej – wydaje mi się, że wygląda ona odrobinę trudniej, ale również nie wieściłabym czarnych scenariuszy. Pewnych media workerów AI może zastąpić, ale wysoko jakościowe dziennikarstwo jest niezastępowalne. Wpisane w naturę dużych modeli językowych halucynowanie czyni ludzki wkład dziennikarski i odpowiedzialny fact-checking niezastępowalnymi. Mówi się, że dostarczanie informacji typu pogoda czy sprawozdania z meczów można z sukcesem i łatwo zautomatyzować, ale zastąpienie całego działu dziennikarzy przez AI postrzegam jako strzał w kolano z perspektywy wydawcy. Prawo na chwilę obecną tego nie zakazuje, a jednocześnie nie nakazuje nic – póki co – w kontekście oznaczania treści generowanych przez AI. Jaka będzie przyszłość prawników czy dziennikarzy? Z pewnością się przekonamy.
Czytaj też
Wyścig skazany za porażkę
Co najmniej kilka lat temu mówiło się o tym, że jako użytkownicy jesteśmy towarem. Korzystamy z mediów społecznościowych, choć wszystkie badania pokazują, że one szkodzą, bo wpływają choćby na zdrowie psychiczne. Mam wrażenie, że ta dyskusja jest jednak spóźniona o kilka lat. Czy z AI będzie podobnie?
Zauważyliśmy, że internet tworzy mnóstwo negatywnych zjawisk. To było bardzo dawno temu, ale pojawił się wtedy argument: „pozwólmy, aby rynek dostawców internetowych sam się uregulował”. Opieraliśmy się na odpowiedzialności samych dostawców rozwiązań. I tak przestrzeń wirtualna tworzyła się latami. Okazało się, że samoregulacją nie da się w pełni skutecznie uregulować rynku i że nadal mamy ogromną ilość problemów w internecie, chociażby tych, o których pani wspomniała. I że nie możemy na to bezczynnie patrzeć. W związku z tym, pojawiła się rewolucja regulacyjna na poziomie unijnym w postaci DSA (Aktu o usługach cyfrowych) i DMA (Aktu o rynkach cyfrowych). Robią one dużo dobrej roboty, ale również i one nie są idealne i często nie odpowiadają na nowe wyzwania.
Samo zresztą ustalenie zakresu zastosowania DSA jest niemałym wyzwaniem dla prawnika, nie mówiąc już o przeciętnym obywatelu. W kontekście naszego wywiadu można podać chociażby przykład z dostawcami generatywnej AI. Nie jest bowiem pewne, czy OpenAI jako dostawca ChataGPT jest postrzegany jako pośrednik internetowy, w związku z tym czy obejmuje go regulacja DSA, czy jednak nie? Wierzę, że da się skonstruować taką interpretację przepisów DSA, która spowoduje, że nową regulację będziemy stosować do producentów generatywnej AI. W ten sposób pozytywne skutki w sferze AI uzyskalibyśmy już na gruncie Aktu o usługach cyfrowych, zamiast gonić problem uchwalaniem następnego aktu prawnego.
Tak już sobie ustaliliśmy: wyścig ten skazany jest na porażkę. W związku z tym jestem wielką zwolenniczką, by próbować łatać to, co się da już istniejącą legislacją, zdając sobie sprawę, że ten wyścig między technologią a prawem jest z definicji przegrany. Rozwój technologiczny to wspaniała rzecz. Ale jednocześnie bardzo mi przykro, że za tempem rodzenia się nowych wyzwań i problemów prawo nie zawsze będzie mogło nadążyć.
Czytaj też
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].
Haertle: Każdego da się zhakować
Materiał sponsorowany