Reklama

Rozmawiasz z Meta AI? Uważaj przy udostępnianiu czatów

Ponad miesiąc po uruchomieniu przez Metę aplikacji AI okazuje się, że ma spory problem z prywatnością. Sęk w tym, że użytkownicy... nie zwracają uwagi na ustawienia.
Ponad miesiąc po uruchomieniu przez Metę aplikacji AI okazuje się, że ma spory problem z prywatnością. Sęk w tym, że użytkownicy... nie zwracają uwagi na ustawienia.
Autor. Mariia Shalabaieva/Unsplash

Sztuczna inteligencja od Mety umożliwia udostępnianie rozmów, które są prowadzone z modelem w aplikacji. Problem w tym, że wszyscy będą mogli się z nimi zapoznać. Tymczasem w konwersacjach poruszane są tematy wrażliwe, a nawet przestępstwa.

Pod koniec kwietnia powrócił temat sztucznej inteligencji, nad którą pracuje Meta. Na naszych łamach wskazywaliśmy, że gigant w końcówce maja powrócił do szkolenia AI na treściach użytkowników z Unii Europejskiej. Ci z kolei musieli wypełnić konkretny formularz, aby ich zawartość nie stała się elementem zbioru treningowego.

Reklama

Podziel się konwersacją... z całym światem

Od kwietnia właściciel Facebooka udostępnia swoją aplikację, Meta AI. Konwersacja z modelem odbywa się za pośrednictwem czatu tekstowego lub głosowo. Na pierwszy rzut oka jest to zwyczajny asystent, jakich wiele na rynku.

W odróżnieniu od innych tego typu usług, Meta dołączyła również opcję udostępnienia danej rozmowy z AI. Jak jednak podaje serwis TechCrunchwielu użytkowników nie jest świadomych, że zostają one upublicznione i są dostępne z poziomu zakładki „Odkrywaj”. Nie ma żadnego procesu anonimizacji czy cenzury – pytania ludzi i odpowiedzi bota stają się całkowicie jawne.

Czytaj też

Reklama

Rozmowy o przestępstwach i danych medycznych

W efekcie na jaw wychodzi bardzo dużo wrażliwych szczegółów, które stanowią sferę życia prywatnego użytkowników. Według czatu znalezionego przez jedną z osób z portalu X (dawny Twitter), jedno z pytań do Meta AI dotyczyło tego, czy siostra użytkownika może odpowiadać za 12-letnie unikanie płacenia podatków przez firmę, której jest wiceszefową (nie stało się to wskutek wycieku).

Z kolei Justine Moore wskazała, że udało się jej znaleźć zdecydowanie więcej „pikantnych” rozmów. Czaty poruszały nie tylko temat „wsparcia dla gangstera w kryzysie duchowym” – podawano w nich również:

  • Wrażliwe szczegóły dotyczące spraw sądowych;
  • Informacje z dokumentów podatkowych czy medycznych;
  • Szczegóły o romansach (i zdradach) użytkowników;
  • Przyznanie się do popełnienia przestępstw;
  • Informacje o miejscu zamieszkania czy numery telefonów.

Próby wejścia do jednego z udostępnionych czatów z terenu Polski kończą się niepowodzeniem. Nie ulega jednak wątpliwości, że są one autentyczne – i stanowią kopalnię wiedzy o użytkownikach, którymi w większości są starsi ludzie.

Czytaj też

Reklama

Uwaga na ustawienia

Czy można się jakoś zabezpieczyć przed tego rodzaju wpadkami? Oprócz oczywistego nieudostępniania szczegółów rozmowy z danym AI, jeżeli naprawdę zachodzi potrzeba podzielenia się nią, należy koniecznie zwrócić uwagę na ustawienia. Ograniczenie grona odbiorców do kilku zaufanych osób jest zawsze lepszym wyjściem, niż udostępnienie wrażliwych szczegółów ze swojego życia całemu światu.

Czytaj też

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na:[email protected].

Reklama
Reklama

SK@NER: Jak przestępcy czyszczą nasze konta?

Komentarze

    Reklama