Cyberbezpieczeństwo
Google do pracowników: nie przekazujcie chatbotom poufnych danych
Google ostrzegło swoich pracowników przed umieszczaniem poufnych materiałów w chatbotach AI. Apel dotyczy nie tylko ChatuGPT, ale także własnego produktu firmy - konkurencyjnego względem OpenAI Barda.
Ostatnie dni przynoszą szereg informacji mówiących o tym, dlaczego nieumiejętne korzystanie z chatbotów może zagrażać naszemu bezpieczeństwu.
Potrzeba zaimplementowania większej ostrożności w naszych działaniach podyktowana jest m.in. ostatnimi doniesieniami mówiącymi o tym, że część danych z ChatuGPT może trafiać na internetowy czarny rynek.
Czytaj też
Zagrożenie dla prywatności
Decyzja władz Alphabetu związana jest z jeszcze innym zagrożeniem. Dokładnie chodzi tu o bezpieczeństwo danych i proces szkolenia chatbotów.
Firma poinformowała swoich pracowników, aby ci nie umieszczali poufnych danych w chatbotach - poinformował Business Insider. Wynika to z tego, że dane te mogą być później wykorzystane przez sztuczną inteligencję i suegrowane jako potencjalne odpowiedzi.
Na dodatek, dostęp do nich mogą mieć także osoby pracujące nad ulepszaniem odpowiedzi chatbotów. To z kolei stanowi spore zagrożenie dla prywatności użytkowników.
Czytaj też
Nie tylko Alphabet
Alphabet nie jest jedyną firmą, która w ostatnim czasie udostępniła zalecenia dotyczące testowania sztucznej inteligencji. Podobny alert już w lutym wydał Microsoft. Dyrektor ds. Technologii koncernu ostrzegł swoich pracowników przed podawaniem ChatowiGPT "wrażliwych informacji". Dodał przy tym, że osoby nie stosujące się do jego apelu, nie będą mogły korzystać z technologii OpenAI.
Co ciekawe, na podobny ruch zdecydował się też Amazon.
Na temat testowania sztucznej inteligencji na łamach CyberDefence24.pl napisaliśmy też dłuższą analizę. Jest ona dostępna pod linkiem.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].
Haertle: Każdego da się zhakować
Materiał sponsorowany