Reklama

Duży wyciek z aplikacji AI. Dane milionów osób zagrożone

Miliony użytkowników popularnych aplikacji AI mogą być zagrożone po ujawnieniu wrażliwych danych.
Miliony użytkowników popularnych aplikacji AI mogą być zagrożone po ujawnieniu wrażliwych danych.
Autor. Rahul Pandit/Pexels

Miliony użytkowników popularnych aplikacji AI mogą być zagrożone po ujawnieniu wrażliwych danych. Wyciek tokenów otworzył drogę do przejęcia kont, podglądu historii rozmów, wygenerowanych obrazów i nielegalnych zakupów kredytów.

Portal Cybernews poinformował, że niezabezpieczony serwer Elasticsearch, należący do pakistańskiej firmy Vyro AI, ujawniał dane w czasie rzeczywistym z trzech aplikacji:

  • ImagineArt (ponad 10 mln pobrań),
  • Chatly (ponad 100 tys. pobrań),
  • Chatbotx (ok. 50 tys. wizyt miesięcznie).

Łącznie firma chwali się ponad 150 mln instalacji swoich narzędzi i generowaniem 3,5 mln obrazów tygodniowo.

Jakie dane wyciekły?

Z serwera można było pobrać m.in.:

  • wpisywane przez użytkowników prompty;
  • tokenty uwierzytelniające (bearer tokens);
  • user agenty.

Według ekspertów, dostęp do tych danych umożliwiałby:

  • przejęcie kont i blokadę użytkownikom dostępu;
  • wgląd w pełną historię rozmów i wygenerowane obrazy;
  • nielegalny zakup kredytów AI, które mogłyby zostać wykorzystane w celach przestępczych.

Błąd dotyczył zarówno środowiska produkcyjnego, jak i deweloperskiego.

Czytaj też

Reklama

Skala problemu

Największe zagrożenie stanowi wyciek z ImagineArt - aplikacji z ponad 10 mln instalacji i 30 mln aktywnych użytkowników. Wyciek tokenów to potencjalna kopalnia złota dla cyberprzestępców.

Prompty wpisywane do chatbotów często zawierają dane osobiste, poufne informacje firmowe lub intymne szczegóły. Upublicznienie takich danych może skutkować kompromitacją użytkowników, wyciekiem tajemnic handlowych czy szantażem.

Czytaj też

Reklama

AI wciąż bez solidnych zabezpieczeń

Incydent pokazuje rosnącą lukę w bezpieczeństwie branży AI. Startupy spieszące się z rozwojem często zaniedbują ochronę danych, mimo że coraz więcej osób powierza chatbotom swoje prywatne informacje.

Jak podaje Cybernews, to nie pierwszy taki przypadek w 2025 roku:

  • W sierpniu ujawniono, że rozmowy z ChatGPT i Grok pojawiły się w wynikach Google z powodu nieprzemyślanej funkcji udostępniania.
  • Chatbot turystyczny Expedii umożliwiał generowanie instrukcji tworzenia koktajli Mołotowa.
  • Nawet OpenAI nie uniknęło krytyki - GPT-5 został „złamany" przez zespoły ds. bezpieczeństwa w mniej niż 24 godziny od premiery.

Incydent z Vyro AI to kolejne ostrzeżenie, że sektor AI potrzebuje lepszych standardów bezpieczeństwa. W erze, gdy użytkownicy powierzają chatbotom nie tylko swoje pytania, ale i prywatność, brak odpowiednich zabezpieczeń to nie tylko błąd. To realne zagrożenie.

Czytaj też

Reklama
CyberDefence24.pl - Digital EU Ambassador

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Cyfrowy Senior. Jak walczy się z oszustami?

Komentarze

    Reklama