Reklama

Prywatność

Uwaga! Czatboty to nowy sposób Big Techów na wyciąganie naszych danych

Autor. GeoJango Maps / Unsplash

Czatboty Big Techów - takie jak Bard Google’a - zaczynają domagać się od nas coraz więcej danych, np. geolokalizacyjnych. To ryzyko, na które nie powinniśmy łatwo się decydować - jednak nowe technologie kuszą swoimi obietnicami i wydajnością.

Reklama

Serwis CyberScoop podaje, że w ostatnim czasie czatbot Bard firmy Google, mający być konkurencją dla produktów Microsoftu opartych o technologię OpenAI, zaczął pytać swoich użytkowników o szczegółowe dane geolokalizacyjne.

Reklama

To, że firmy technologiczne chcą o nas wiedzieć tak dużo, jak to tylko możliwe, to żadna nowość - nasze dane ostatecznie są główną siłą napędową biznesu Big Techów. W przypadku czatbotów apetyt na dane jednak może nieść z sobą jeszcze większe ryzyko dla prywatności, niż to ma miejsce przy innych usługach internetowych - ostrzegają eksperci.

Czytaj też

Czatboty nieprzyjazne wobec prywatności

Cytowana przez serwis dyrektorka zarządzająca instytutu badawczego AI Now Institute Sarah Myers West ocenia, że w przypadku dużych modeli językowych takich jak Bard, istnieje wiele uzasadnień dla obaw, dotyczących wpływu gromadzenia danych przez czatboty na bezpieczeństwo i prywatność użytkowników.

Reklama

Ekspertka wskazuje m.in. na możliwość wykorzystywania danych z czatbotów przez organy ścigania i osadza to w kontekście wprowadzenia zakazu aborcji w licznych stanach USA - znane są już przypadki, w których dane z usług cyfrowych posłużyły do próby karania kobiet za chęć dostępu do świadczeń zdrowotnych z zakresu zdrowia reprodukcyjnego.

Nadużycia wobec danych geolokalizacyjnych, które gromadzą czatboty, mogą być również - jak zwraca uwagę - wykorzystywane do innych niecnych celów, jak np. przestępstwo nękania kogoś (stalking).

Czytaj też

Dziki Zachód

CyberScoop zauważa, że obawy związane z gromadzeniem danych przez modele AI rosną w miarę ze zrozumieniem, iż obecnie rozwój branży sztucznej inteligencji przypomina Dziki Zachód. Sektor ten nie jest w żaden sposób uregulowany, a działania firm pozostają nieprzejrzyste zarówno dla konsumentów, jak i dla polityków debatujących coraz głośniej nad potrzebą ukrócenia bezprawia.

Technologie konsumenckie oparte o modele AI są młode - czatboty nie są dostępne publicznie nawet przez rok, co sprawia, że trudno przeanalizować, jaki wpływ ich działanie będzie wywierało długofalowo na społeczeństwo i na prywatność każdego z nas.

Czytaj też

Pierwsze problemy

Na łamach naszego serwisu pisaliśmy już o tym, że kroki w sprawie ochrony danych osobowych wobec OpenAI - producenta modelu ChatGPT - podjął już włoski organ Garante . Doprowadził on do tymczasowej blokady produktu Sama Altmana we Włoszech, zmuszając firmę, aby przynajmniej deklaratywnie opowiedziała się w kwestii tego, czy ma zamiar wprowadzić mechanizmy chroniące prywatność i pozwalające na zgodność ChatuGPT z obowiązującym w UE RODO. Włoski organ zapowiedział, że przyjrzy się również innym systemom AI .

Problem dostrzegany jest także w USA, gdzie - jak przypomina CyberScoop - firmy z branży AI dostały ostrzeżenie od regulatorów, którzy widzą, że przedsiębiorstwa ścigają się o to, kto będzie miał większy zbiór danych szkoleniowych i usprawni swoje modele szybciej i lepiej, zupełnie nie zważając na kwestie związane z ochroną prywatności konsumentów usług cyfrowych.

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama
Reklama

Komentarze