Reklama

Technologie

OpenAI powołało komitet do spraw bezpieczeństwa. Pozorne działania?

OpenAI powołało komitet do spraw bezpieczeństwa
„OpenAI musi stać się liderem AGI, który będzie stawiał bezpieczeństwo na pierwszym miejscu” - stwierdził Jan Leike.
Autor. Jonathan Kemper / unsplash.com

W ostaniem czasie z OpenAI odeszli eksperci do spraw bezpieczeństwa, w tym Jan Leike, który ostrzegł przed działaniem firmy. W odpowiedzi gigant powołał komisję ds. ochrony i bezpieczeństwa. Na jej czele stoją… dyrektorzy OpenAI.

Jak pisaliśmy w CyberDefence24.pl – na przełomie kwietnia i maja miała miejsce fala odejść z OpenAI ekspertów związanych z bezpieczeństwem sztucznej inteligencji.

Z firmy odeszło dwóch dyrektorów: Diane Yoon (wiceprezes ds. zasobów ludzkich) i Chris Clark (szef inicjatyw non-profit i strategicznych).

OpenAI rozstało się też z badaczami Leopoldem Aschenbrennerem i Pavelem Izmailovem. Obaj pracowali w zespole ds. superwyrównania, który zajmuje się w OpenAI dostosowywaniem narzędzi AI do interesów ludzkich. Grupa ta działa w ramach zespołu ds. bezpieczeństwa, który został powołany w 2023 roku.

Z firmy odszedł także Ilya Sutskever - współzałożyciel i główny naukowiec Open AI. Jego miejsce zajął Polak Jakub Pachocki.

Ekspert ds. bezpieczeństwa w konflikcie z zarządem

Kilka godzin po Sutskeverze, o odejściu poinformował też Jan Leike, współprzewodniczący zespołu ds. superwyrównywania (org. Superalignment).

„Od dłuższego czasu nie zgadzałem się z kierownictwem, co do głównych priorytetów firmy, aż w końcu dotarliśmy do punktu krytycznego” – skomentował w portalu X, w serii wpisów.

Czytaj też

Reklama

Problemy niemożliwe do rozwiązania?

Kością niezgody było przekonanie Leike, że OpenAI powinno bardziej skupiać się na przygotowaniu kolejnych modeli AI pod kątem m.in. bezpieczeństwa, poufności czy wpływu na społeczeństwo.

„Problemy te są dość trudne do rozwiązania i obawiam się, że nie jesteśmy na dobrej drodze, aby to zrobić. (…) Przez ostatnie kilka miesięcy moja drużyna płynęła pod wiatr.” – stwierdził Leike.

Czytaj też

Reklama

"Budowanie maszyn mądrzejszych od ludzi jest niebezpieczne"

Leike ostrzegł przed obecnymi działania OpenAI: „Budowanie maszyn mądrzejszych od ludzi jest przedsięwzięciem z natury niebezpiecznym” – napisał w portalu X.

„OpenAI bierze na siebie ogromną odpowiedzialność – za całą ludzkość. Jednak w ciągu ostatnich lat kultura i procesy bezpieczeństwa zeszły na dalszy plan, ważniejsze stały się błyszczące produkty” – komentuje dalej Leike.

OpenAI musi stać się liderem AGI, który będzie stawiał bezpieczeństwo na pierwszym miejscu” – zaznaczył.

Czytaj też

Reklama

Komitet ds. bezpieczeństwa i ochrony

OpenAI nie odniosło się wprost do zarzutów Leike i wątpliwości związanych z odejściem ekspertów ds. bezpieczeństwa. Jednak 28 maja firma opublikowała oświadczenie, w którym informuje o powstaniu komitetu ds. bezpieczeństwa i ochrony.

Jak czytamy nowy komitet jest odpowiedzialny za wydawanie zaleceń w sprawie kluczowych decyzji dotyczących bezpieczeństwa i ochrony wszystkich projektów OpenAI.

Czytaj też

Ocena bezpieczeństwa w ciągu 90 dni

W oświadczeniu napisano, że „pierwszym zadaniem komitetu ds. bezpieczeństwa i ochrony będzie ocena i dalszy rozwój procesów i zabezpieczeń OpenAI w ciągu najbliższych 90 dni”.

Po upływie 90 dni komitet przedstawi swoje zalecenia zarządowi. Następnie OpenAI zaktualizuje swoje wytyczne dotyczące bezpieczeństwa i ochrony i udostępni je publicznie.

Czytaj też

Nowi eksperci w OpenAI

Na konferencji komisji, która obędzie się za 90 dni mają być obecni eksperci techniczni i strategiczni OpenAI: Aleksander Mądry (szef ds. gotowości), Lilian Weng (szef ds. systemów bezpieczeństwa), John Schulman (szef ds. nauki o wyrównywaniu), Matt Knight (szef ds. bezpieczeństwa) i Jakub Pachocki (główny naukowiec).

Ponadto OpenAI zatrudni nowych ekspertów ds. bezpieczeństwa i technicznych, którzy będą wspierać prace komisji, w tym byłych urzędników ds. cyberbezpieczeństwa, m.in. Roba Joyce’a, który doradza OpenAI w kwestiach bezpieczeństwa.

Zarząd OpenAI na czele komitetu

Co istotne na czele Komisji stoi… zarząd OpenAI: CEO Sam Altman, Adam D’Angelo i Nicole Seligman. Przewodniczącym został dyrektor wykonawczy firmy - Bret Taylor.  

W komitecie brakuje jakichkolwiek zewnętrznych obserwatorów. Kwestie bezpieczeństwa nadal pozostają więc w rękach dyrektorów generalnych. Wątpliwe wiec jest, czy komitet będzie miał realny wpływ na podejście OpenAI do kwestii bezpieczeństwa.

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Komentarze

    Reklama