Reklama

Technologie

Zakaz nieetycznych modeli AI w Unii Europejskiej? „To dobry pomysł”

Smarphone - sztuczna inteligencja
"Jeżeli jakieś rozwiązanie miałoby wyrządzać ludziom szkody lub być wprowadzane w sposób podstępny, to wtedy nie spełnia przesłanki etyczności technologii" - ocenia prawniczka Alicja Kaszuba
Autor. @rawpixel.com / Freepik

Jak Unia Europejska powinna radzić sobie z obchodzeniem RODO przez Big Techy, które tworzą własne modele sztucznej inteligencji? O komentarz w tej sprawie poprosiliśmy prawnik i adwokat Alicję Kaszubę.

Pod wpływem interwencji Irlandzkiej Komisji Ochrony Danych Elon Musk zdecydował o wstrzymaniu przetwarzania części danych Europejczyków, które portal X wykorzystywał do szkolenia własnego modelu sztucznej inteligencji Grok. Podobną decyzję w czerwcu podjęła Meta.

Uważam, że działanie podejmowane przez europejskie organy wobec Mety i portalu X są zasadne i bardzo potrzebne. Po to właśnie powstały i temu też ma służyć RODO” – ocenia adw. Alicja Kaszuba.

Czytaj też

Reklama

RODO a sztuczna inteligencja

Jak podkreśla nasza rozmówczyni, RODO nie powstało stricte ze względu na sztuczną inteligencję, ale po to by chronić dane obywateli Unii Europejskiej. „RODO powinno mieć zastosowanie, jeśli istnieje ryzyko naruszenia praw i wolności obywateli” – zaznacza.

Na RODO opierała się też Irlandzka Komisja Ochrony Danych, która doprowadziła do tego, że Musk zgodził się nie przetwarzać danych, które pobrał z postów użytkowników od 7 maja 2024 r. do 1 sierpnia 2024 r.

Jakie uwagi ma organ? RODO wymaga, aby wszelkie przetwarzanie danych osobowych miało odpowiednią podstawę prawną. Portal X powinien więc uzyskać zgodę użytkowników na przetwarzanie danych. Tymczasem Musk po cichu zaczął zbierać dane, nie informując o tym nikogo. Osoby korzystające z X zorientowały się, że tak jest znajdując w ustawieniach formularz opt-out.

Czytaj też

Reklama

Zgoda na przetwarzanie danych

Jak tłumaczy Alicja Kaszuba Artykuł 6. RODO określa podstawę prawną do przetwarzania danych osobowych i jest to zgoda podmiotu danych.

Zgoda powinna być wyraźna i uprzednia. Osoby przede wszystkim muszą być poinformowane, jakie dane są zbierane, w jakim celu, w jaki sposób będą przechowywane i zabezpieczane. „Uprzednia” oznacza, że zgoda powinna być udzielona, zanim zaczniemy wykorzystywać dane, a nie w trakcie procesu – wyjaśnia prawniczka.

Według Alicji Kaszuby działania X w kontekście trenowania Groka nie spełniają standardu wyraźnej i uprzedniej zgody.

Czytaj też

Reklama

Szantaż emocjonalny w formularzach opt-out

„Jeśli firma korzysta z funkcji opt-out – powinna ona być skonstruowana na odwrót, czyli domyślnie użytkownik nie wyraża zgody i dopiero wchodząc w ustawienia, może zaznaczyć, że jednak wyraża” – komentuje Alicja Kaszuba. Prawniczka zauważyła, że problem ten dotyczy też niektórych stron internetowych, gdzie zgody marketingowe są docelowo od razu zaznaczone.

Warto w tym kontekście zauważyć, że przy formularzu opt-out w portalu X pojawia się wyjaśnienie, że proces jest prowadzony, „Aby ciągle ulepszać oferowane funkcje”. Natomiast w Centrum Pomocy Groka napisano: „Dostęp do publicznych postów X w czasie rzeczywistym pozwala modelowi Grok odpowiadać na zapytania użytkowników, podając aktualne informacje i spostrzeżenia na szeroki zakres tematów”.

Natomiast jedna z opcji w formularzu opt-out Mety brzmi: „chcę usunąć wszelkie informacje osobiste od podmiotów zewnętrznych użyte do tworzenia i ulepszania sztucznej inteligencji Meta”.

Komunikaty sugerują więc, że w takiej sytuacji nie chcemy otrzymywać lepszych usług i uczestniczyć w innowacyjnych procesach. Sformowane w ten sposób formularze to poniekąd szantaż emocjonalny, który ma wzbudzać w nas poczucie winy, jeśli zdecydujemy się skorzystać ze swoich praw i nie zezwolić na trenowanie AI na naszych danych.

Czytaj też

Jak informować o przetwarzaniu danych?

Informacja o procesie przetwarzania danych powinna być jasna i klarowna. Są pomysły, aby formularze zgody czy informacje o tym, jak dane są przetwarzane, czyli cały obowiązek informacyjny wynikający z artykułu 13. czy 14. RODO były przedstawiane w formie graficznej. W tym momencie to setki słówek, napisanych niewielką czcionką, które mało kto czyta. Raczej klikamy „dalej” i „dalej” bez zagłębiania się w komunikat” – twierdzi Alicja Kaszuba.

Chodzi o to, aby użytkownik w jasny, prosty i szybki sposób mógł się dowiedzieć, jak jego dane będą wykorzystywane i do czego” – wyjaśnia ekspertka.

Jak mówi - problem tkwi w tym, że nie ma sztywnych przepisów, dotyczących tego, jak zgoda i informacja o przetwarzaniu danych ma wyglądać, co ma zawierać i w jaki sposób powinna być ułożona. Co Big Techom jedynie ułatwia obchodzenie RODO.

Czytaj też

Zakaz nieetycznie trenowanych modeli AI w Unii Europejskiej

W odpowiedzi na omawiane problemy eksperci wpadli na pomysł, aby zakazać w Unii Europejskiej modeli sztucznej inteligencji, które były trenowane w nieetyczny sposób, czyli np. na danych użytkowników bez ich wyraźniej zgody. Pomysłowi przeciwstawia się branża argumentując, że rynek europejski powinien być konkurencyjny i innowacyjny.

Myślę, że trzeba rozważyć głosy obu stron. Osobiście uważam, że jest to dobry pomysł. Kojarzy mi się to z prawem karnym i doktryną owoców z zatrutego drzewa. Chodzi o to, że organ ścigania czy sąd nie może uznać dowodów, które zostały zdobyte w nielegalny sposób” – komentuje Alicja Kaszuba.

Według prawniczki, konkurencyjność nie może być osiągnięta w sposób nieetyczny czy wręcz nielegalny. „Spotkałam się z tym, że niektóre firmy dowiadują się, jakie sankcje związane są z ich działaniami, ale i tak podejmują ryzyko, bo sankcja jest mniejsza niż oczekiwany zysk. To jest właśnie nieetyczny sposób prowadzenia biznesu” – ocenia ekspertka.

Czytaj też

Etyczny, czyli jaki?

Według Alicji Kaszuby, w przestrzeni publicznej brakuje zarumienia, czym jest etyczna sztuczna inteligencja. „Niektórzy myślą, że etyczność miałaby polegać na spełnieniu wymagań stworzonych np. przez Unię Europejską czy Organizacja Narodów Zjednoczonych, które ustalą jakiś kodeks etyczny, czy też zewnętrzne wytyczne i na tej podstawie będziemy sobie odhaczać czy każdy wymóg jest spełniony. A to na tym nie polega” – tłumaczy nasza rozmówczyni.

Jeżeli jakieś rozwiązanie miałoby wyrządzać ludziom szkody lub być wprowadzane w sposób podstępny, to wtedy nie spełnia przesłanki etyczności technologii. Na tym polega wykorzystanie technologii w sposób etyczny i moralny” – konkluduje.

Czytaj też

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama
Reklama

Komentarze