Reklama

Technologie

#CyberMagazyn: ChatGPT zagrożeniem dla prywatności? Każdy z nas codziennie trenuje algorytmy

sztuczna inteligencja
Autor. Placidplace/Pixabay

Fascynacja ChatGPT nie ma końca. Platforma i sam model sztucznej inteligencji udostępniony przez OpenAI bije rekordy popularności. Jak podaje serwis The Verge, w ciągu ostatnich dwóch miesięcy liczba osób korzystających z pomocy ChatGPT przekroczyła 100 milionów. Eksperci zaczynają jednak zadawać słuszne pytanie - czy na pewno chcemy samodzielnie trenować opisywany model i tym samym go ulepszać?

Reklama

W ostatnim czasie korzystają z niego praktycznie wszyscy: marketerzy, designerzy, programiści, a nawet osoby zajmujące się na co dzień szeroko pojętą kulturą i sztuką. Nikt jednak nie mówi za bardzo o tym, co dokładnie dzieje się z danymi, które wprowadzane są w setkach, jeśli nie milionach tekstowych linijek każdego dnia.

Reklama

To szczególnie ważne w dobie rozwoju algorytmów sztucznej inteligencji, które napędzane są danymi wprowadzanymi przez użytkowników. To swoisty, niekończący się cykl, w którym nowe informacje trenują dany model, aby zapewnić jego lepsze i szybsze funkcjonowanie. Metody zbierania danych przez ChatGPT przerażają już niektóre firmy. Wśród nich znajduje się na przykład amerykański Amazon.

Czytaj też

Dane, dane i jeszcze raz dane

Do trenowania i ulepszania większości modeli sztucznej inteligencji potrzebne są ogromne ilości danych. Im więcej z nich będzie trafiało do bazy, tym lepiej dane algorytmy będą w stanie odkryć wzorce, przewidzieć co będzie dalej i bezpośrednio stworzyć z tego wszystkiego nowe treści.Codziennie przecież setki tysięcy osób wchodzą w interakcję z tym modelem, tym samym przyczyniając się do jego regularnego trenowania. W przyszłości może to rodzić wiele problemów (z niektórymi z nich twórcy ChatGPT muszą mierzyć się już dziś). Konkretnie w tym przypadku chodzi mi o wprowadzanie danych z uprzedzeniami, nacechowanymi rasizmem oraz zdominowanych przez internetowych trolli, którzy w oryginalny sposób bawią się z opisywanym modelem. Twórcy OpenAI zaczęli się kajać, kiedy wyszło na jaw, że tego typu dane są moderowane i przeglądane przez specjalny zespół Kenijczyków pracujących za równowartość 2 dolarów za godzinę.

Reklama

Dla zobrazowania tego, jak dużym modelem AI jest ChatGPT - cała angielska odsłona Wikipedii zawiera w sobie około 6 milionów artykułów. Taka ilość danych stanowi zaledwie 0,6 proc. całej bazy danych, z której może korzystać produkt rozwijany przez OpenAI.

Przy takiej skali, uniknięcie gromadzenia niewłaściwych danych jest praktycznie nie do przeskoczenia. OpenAI nie wyjaśnia dokładnie na swojej stronie, co robi z wprowadzanymi do chatbota informacjami (oczywiście poza tym, że służą one do trenowania modelu sztucznej inteligencji).

Czytaj też

Problem Amazona

Amazon jest pierwszą z dużych firm technologicznych, które już teraz zaczęły borykać się z problemami powiązanymi bezpośrednio z ChatGPT. Jak donosi Business Insider, któremu udało się dotrzeć do wewnętrznych notatek amerykańskiej firmy, Amazon ostrzegał swoich pracowników przed udostępnieniem poufnych informacji lub firmowego kodu chatbotowi stworzonemu przez OpenAI. Środki ostrożności zostały zastosowane bezpośrednio po tym, jak sam ChatGPT zaczął w swoich odpowiedziach udostępniać informacje będące niczym innym, jak kopią wewnętrznych danych Amazona.

Firma Jeffa Bezosa wprowadziła odpowiednie przepisy oraz regulacje, które ostrzegają pracowników przed wchodzeniem w interakcję z ChatGPT - przyczynił się do tego dział Amazon Security. Przedsiębiorstwo nie przyznaje się jednak do tego, co ma zamiar dalej zrobić z tym tematem. Można się spodziewać, że w pewnym momencie restrykcje posuną się znacznie dalej.

Czytaj też

Czy spóźniliśmy się z odpowiednimi regulacjami?

Obecnie nie ma powszechnie akceptowanej metody związanej z usuwaniem danych wprowadzonych do modeli sztucznej inteligencji przez osoby fizyczne - chwilę po tym, jak zostały one wykorzystane do wytrenowania danego zestawu algorytmów. Z czasem osoby, które przyczyniły się do rozwoju konkretnych technologii mogą mieć ochotę do skorzystania z “prawa do zapomnienia” i usunięcia wprowadzonych przez siebie danych. Na ten moment jest to bardzo trudne, jeśli nie niemożliwe do osiągnięcia.

Czy w takim razie ChatGPT jest legalny? To wszystko zależy od praw oraz przepisów w danym kraju lub regionie. To, co jako pierwsze przychodzi na myśl, to oczywiście RODO stosowane szeroko w Unii Europejskiej - regulujące wykorzystanie danych osobowych i dbanie o to, aby były one wykorzystywane tylko i wyłącznie do zgodnych z prawem celów. Dla porównania, w Stanach Zjednoczonych nie ma prawa federalnego, które regulowałoby podobne sytuacje.

Ciężko więc ocenić czy obecnie spóźniliśmy się z regulacjami dotyczącymi wykorzystania sztucznej inteligencji, chatbotów oraz wpływu samych algorytmów na pozyskiwanie naszych danych. Prawda jest niestety przykra i bolesna: prawo będzie zawsze w tyle za tempem rozwoju nowych technologii i obecnie trzeba się chyba po prostu pogodzić z taką sytuacją.

Unia Europejska pracuje obecnie nad zestawem przepisów wycelowanych w sztuczną inteligencję - noszą one nazwę European Artificial Intelligence Act i mają pokrywać wiele obszarów związanych z wykorzystaniem algorytmów każdego dnia.

Czytaj też

Korzystajmy z dóbr sztucznej inteligencji, ale… z głową

ChatGPT na razie "nie zniszczy cywilizacji", ani nie zabierze nam pracy - nie oznacza to także, że trzeba kategorycznie blokować wszystko, co z nim związane. Warto jednak podczas korzystania z tego chatbota mieć świadomość, że wszystkie wprowadzane przez nas informacje mogą zostać wykorzystane na różne sposoby.

Podobnie, jak i ze wszystkim w życiu - sztuczna inteligencja może nam pomóc. Trzeba tylko korzystać z niej z głową. I wszystko powinno być w jak najlepszym porządku.

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama
Reklama

Komentarze