Technologie
Burza wokół Slacka. Chodzi o szkolenie sztucznej inteligencji
Slack trenuje modele uczenia maszynowego na wiadomościach użytkowników, plikach i innych treściach bez wyraźnej zgody. Zapewnia jednak, że dane są bezpieczne.
Kilka dni temu w portalu X (dawny Twitter) wybuchła gorąca dyskusja dotycząca aplikacji Slack. Użytkownicy, którzy często korzystają z platformy w pracy, zwrócili uwagę na nieprecyzyjne zasady dotyczące szkolenia sztucznej inteligencji.
Osoby, które korzystają ze Slack w środowisku firmowym (często w wersji płatnej), mają się czego obawiać, zwłaszcza jeśli wysyłają między sobą wiadomości i pliki, zawierające poufne informacje dotyczące organizacji.
Szkolenie sztucznej inteligencji na danych użytkowników
„Sorry Slack, co do k…. robicie z prywatnymi wiadomościami, plikami itp.?” – napisał wyraźnie oburzony ekonomista Corey Quinn na portalu X.
W ten sposób odniósł się do zasad prywatności Slacka, w których zapisano: „Aby opracować modele AI/ML, nasze systemy analizują Dane Klienta (np. wiadomości, treści i pliki) przesłane przez Slack, a także inne informacje (w tym informacje o użytkowaniu) zgodnie z definicją w naszej Polityce prywatności i w umowie z klientem”.
Jeśli ktoś sobie tego nie życzy, może zrezygnować przez tzw. klauzulę opt-out. Takie rozwiązanie jest popularne wśród firm, którego szkolą własne modele sztucznej inteligencji.
I'm sorry Slack, you're doing fucking WHAT with user DMs, messages, files, etc? I'm positive I'm not reading this correctly. pic.twitter.com/6ORZNS2RxC
— Corey Quinn (@QuinnyPig) May 16, 2024
Czytaj też
Rezygnacja z udostępniania danych
Po krytyce Slack zaktualizował i doprecyzował politykę prywatności. Jak czytamy:
„Jeśli chcesz wykluczyć swoje dane z pomocy w szkoleniu globalnych modeli Slack, możesz użyć opcji opt-out. (…) Aby zrezygnować, poproś swoją organizację, właścicieli Workspace lub głównego właściciela o skontaktowanie się z naszym zespołem ds. obsługi klienta pod adresem [email protected], podając adres URL Workspace/organizacji i temat »Wniosek o rezygnację z modelu globalnego Slack« Rozpatrzymy Twoją prośbę i odpowiemy po zakończeniu rezygnacji”.
Czytaj też
Slack odpowiada
Firma odniosła się też do sprawy we wpisie na blogu. Według Slacka dane klientów nie są wykorzystywane do szkolenia żadnych z generatywnych produktów AI firmy Slack, które opierają się na narzędziach LLM innych firm.
Natomiast dane te są wprowadzane do modeli uczenia maszynowego dla produktów „takich jak rekomendacje kanałów, emoji oraz wyniki wyszukiwania”.
„Nie budujemy ani nie szkolimy tych modeli w taki sposób, aby mogły się uczyć, zapamiętywać lub być w stanie odtworzyć jakiekolwiek dane klienta” – zapewniają przedstawiciele Slacka.
„Tradycyjne modele ML (niegeneratywne – red.) firmy Slack wykorzystują zagregowane dane pozbawione cech identyfikacyjnych i nie uzyskują dostępu do treści wiadomości na czacie, kanałach prywatnych ani kanałach publicznych” – zaznaczono.
Czytaj też
Slack wprowadza w błąd?
Mimo tych deklaracji w polityce prywatności można znaleźć pewne nieścisłości. Z jednej strony czytamy: „podczas opracowywania modeli Al/ML lub innej analizy danych klienta, Slack nie może uzyskać dostępu do podstawowej treści. Dysponujemy różnymi środkami technicznymi, które zapobiegają takim sytuacjom”.
Jednak cała polityka szkolenia AI w zakresie modelu uczenia maszynowego zdaje się zaprzeczać temu stwierdzeniu.
Ponadto na stronie internetowej reklamującej własny model sztucznej inteligencji Slack pisze: „Twoje dane są Twoje. Nie używamy ich do szkolenia AI Slack”. Stwiedzenie nie jest do końca zgodne z prawdą, bo nie wiadomo czy odnosi się do generatywnych modeli czy do tradycyjnych.
Czytaj też
Szkolenie sztucznej inteligencji
To, na jakich danych można szkolić sztuczną inteligencję, budzi kontrowersje, ponieważ brakuje jednoznacznych rozwiązań prawnych w tej kwestii.
Jak mówił radca prawny Andrzej Boboli w rozmowie z CyberDefence24.pl: „Obecnie obowiązują przepisy, które mówią, że jeśli autor nie wyrazi sprzeciwu względem wykorzystania jego treści do trenowania dużych sieci neuronowych, czy dużych modeli językowych, to podmiot, który dostarcza tego typu rozwiązania AI, może to zrobić”.
Nad rozwiązaniem tego problemu pracuje jednak m.in. Unia Europejska – poprzez Akt o sztucznej inteligencji.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].