Cyberbezpieczeństwo
Haker przejął korespondencję OpenAI i wykradł tajemnice firmy
Haker uzyskał dostęp do wewnętrznych wiadomości pracowników OpenAI i wykradł dane dotyczące projektu technologii sztucznej inteligencji firmy – donosi „The New York Times”. Firma nie poinformowała o incydencie opinii publicznej, ani organów ścigania.
Do zdarzenia doszło w 2023 roku. Cyberprzestępca ukradł dane z dyskusji na forum firmy, na którym pracownicy OpenAI rozmawiali o najnowszych technologiach giganta. Nie dostał się jednak do systemów, w których Big Tech przechowuje i buduje swoją sztuczną inteligencję.
„The New York Times” otrzymał te informacje od dwóch osób zaznajomionych z incydentem, które chcą pozostać anonimowe.
Czytaj też
Dyrektorzy OpenAI nie ujawnili kradzieży danych
Dyrektorzy OpenAI powiedzieli pracownikom i zarządowi o kradzieży danych podczas spotkania wszystkich osób zatrudnionych w biurach firmy w San Francisco, w kwietniu 2023 roku.
Zarząd zdecydował, żeby nie powiadamiać opinii publicznej o włamaniu, ponieważ żadne informacje o klientach lub partnerach nie zostały skradzione – twierdzą dwie osoby, z którymi rozmawiał „The New York Times”.
Dyrektorzy nie uznali incydentu za zagrożenie dla bezpieczeństwa narodowego, ponieważ wierzyli, że haker był osobą prywatną, bez znanych powiązań z obcym rządem. W związku z tym nie poinformowali o sytuacji FBI, ani innych organów ścigania.
Czytaj też
Obawy pracowników - zagrożenie ze strony Chin
U niektórych pracowników OpenAI wiadomość o włamaniu wywołała obawy, że zagraniczna konkurencja, taka jak Chiny, mogłaby ukraść technologię sztucznej inteligencji, która — choć obecnie jest głównie narzędziem pracy i badań — może ostatecznie zagrozić bezpieczeństwu narodowemu USA. Pracownicy zaczęli się też zastanawiać, czy OpenAI traktuje cyberbezpieczeństwo poważnie.
Czytaj też
Jeden z pracowników zwolniony
Incydent ujawnił podziały w firmie dotyczące podejścia do ryzyka związanego z rozwojem sztucznej inteligencji.
Po włamaniu Leopold Aschenbrenner, technical program manager OpenAI, który skupiał się na zapewnieniu, że technologie sztucznej inteligencji nie spowodują poważnych szkód, wysłał notatkę do zarządu OpenAI, argumentując, że firma nie robi wystarczająco dużo, aby zapobiec kradzieży jej tajemnic przez chiński rząd i innych zagranicznych przeciwników.
OpenAI zareagowało… zwolnieniem Aschenbrennera w kwietniu br. Mężczyzna twierdzi, że został obwiniony za wyciek informacji, a decyzja miała podłoże polityczne. W opublikowanym niedawno podcaście Aschenbrenner ocenił, że zabezpieczenia OpenaAI nie były wystarczająco silne, aby chronić firmę przed kradzieżą kluczowych tajemnic ze strony zagranicznych aktorów.
Czytaj też
Komentarz OpenAI
Big Tech zaprzecza wersji Aschenbrennera. „Doceniamy obawy, jakie Leopold wyraził wobec OpenAI, ale nie doprowadziły one do jego odejścia” — skomentowała rzeczniczka OpenAI, Liz Bourgeois w rozmowie z „The New York Times”.
Jak dodała: „Chociaż podzielamy jego zaangażowanie w budowę AGI, nie zgadzamy się z wieloma twierdzeniami, które od tego czasu wysunął na temat naszej pracy. Dotyczy to również jego charakterystyki naszych zabezpieczeń, w szczególności incydentu, który omówiliśmy i o którym poinformowaliśmy naszą radę, zanim dołączył do firmy” – przekazała rzecznika.
Czytaj też
Fala odejść z OpenAI
Przypomnijmy, że Aschenbrenner nie jest jedyną osobą związaną z bezpieczeństwem, która rozstała się w ostanim czasie z OpenAI. Rezygnację ogłosili współzałożyciel i główny naukowiec firmy Ilya Sutskever, a także współprzewodniczący grupy zajmującej się dostosowywaniem narzędzi AI - Jan Leike. O sprawie pisaliśmy w CyberDefence24.pl.
W odpowiedzi na ten kryzys firma Sama Altmana powołała komitet do spraw bezpieczeństwa i ochrony. Na jej czele stanęli jednak dyrektorzy OpenAI. Budzi to wątpliwości, czy komitet będzie miał realny wpływ na podejście firmy do kwestii bezpieczeństwa.
Czytaj też
Czy sztuczna inteligencja jest zagrożeniem dla bezpieczeństwa narodowego?
Jak zaznacza NYT – obecnie nie ma wielu dowodów na to, że technologie sztucznej inteligencji stanowią poważne zagrożenie dla bezpieczeństwa narodowego.
Daniela Amodei, współzałożycielka Anthropic i prezeska firmy, powiedziała w rozmowie NYT, że jej najnowsza technologia sztucznej inteligencji nie stanowiłaby dużego ryzyka, gdyby projekty zostały skradzione lub udostępnione innym osobom. „Gdyby należała do kogoś innego, czy mogłoby to być bardzo szkodliwe dla dużej części społeczeństwa? Nasza odpowiedź brzmi: Nie, prawdopodobnie nie” - stwierdziła.
Czy jednak takie stwierdzenie jest zgodne z prawdą? Z pewnością najnowsza technologia stanowiłaby zagrożenie w rękach rosyjskich czy chińskich cyberprzestępców. Zwłaszcza, że badacze i dyrektorzy techniczni od dawna alarmują, że AI może pewnego dnia napędzać tworzenie nowej broni biologicznej lub pomóc włamać się do rządowych systemów komputerowych. Niektórzy uważają nawet, że może „zniszczyć ludzkość”. Na przeciwległej szali stoją z kolei eksperci, którzy twierdzą, że przeceniamy możliwości sztucznej inteligencji i jej możliwy wpływ na życie ludzi.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].