Technologie
Niepokojące odejścia w OpenAI. Polak głównym naukowcem firmy
W OpenAI trwa fala odejść osób, które zajmowały się tworzeniem bezpiecznej sztucznej inteligencji. Rezygnację ogłosili współzałożyciel i główny naukowiec firmy, a także współprzewodniczący grupy zajmującej się dostosowywaniem narzędzi AI.
Swoje odejście Ilya Sutskever (współzałożyciel i główny naukowiec) ogłosił na portalu X (dawny Twitter). „Po prawie dekadzie podjąłem decyzję o opuszczeniu OpenAI. Trajektoria rozwoju firmy była po prostu cudowna i jestem pewien, że OpenAI zbuduje AGI, które będzie zarówno bezpieczne, jak i korzystne” – napisał naukowiec.
Sutskever podziękował za współpracę i przekazał, że jego miejsce zajmie Polak, Jakub Pachocki. „Jestem podekscytowany tym, co nadchodzi – projektem, który ma dla mnie ogromne znaczenie osobiste i o którym podzielę się szczegółami w odpowiednim czasie” - dodał Sutskever.
After almost a decade, I have made the decision to leave OpenAI. The company’s trajectory has been nothing short of miraculous, and I’m confident that OpenAI will build AGI that is both safe and beneficial under the leadership of @sama, @gdb, @miramurati and now, under the…
— Ilya Sutskever (@ilyasut) May 14, 2024
Czytaj też
Sam Altman o odejściu Sutskevera
Do decyzji Sutskevera odniósł się na portalu X Sam Altman. „Drogi Ilya i OpenAI rozchodzą się. Jest to dla mnie bardzo smutne; Ilya jest z pewnością jednym z największych umysłów naszego pokolenia, światłem przewodnim w naszej branży i drogim przyjacielem. Jego błyskotliwość i wizja są dobrze znane; jego ciepło i współczucie są mniej znane, ale nie mniej ważne” – napisał CEO OpenAI.
Czytaj też
Jakub Pachocki głównym naukowcem
Sam Altman pochwalił na platformie X Polaka Jakuba Pachockiego, który przejął dotychczasowe stanowisko Sutskevera:
Jakub jest także jednym z najwybitniejszych umysłów naszego pokolenia; Jestem zachwycony, że przejmuje pałeczkę. Kierował wieloma naszymi najważniejszymi projektami i jestem przekonany, że poprowadzi nas do szybkiego i bezpiecznego postępu w realizacji naszej misji, jaką jest stworzenie AGI, która przyniesie korzyści dla wszystkich.
Sam Altman
Ilya and OpenAI are going to part ways. This is very sad to me; Ilya is easily one of the greatest minds of our generation, a guiding light of our field, and a dear friend. His brilliance and vision are well known; his warmth and compassion are less well known but no less…
— Sam Altman (@sama) May 14, 2024
Czytaj też
Ekspert ds. bezpieczeństwa: „rezygnuję”
Kilka godzin później o swoim odejściu poinformował też Jan Leike. „Rezygnuję” – napisał krótko w portalu X. Leike był członkiem zespołu ds. bezpieczeństwa w OpenAI.
Jak pisaliśmy w CyberDefence24.pl, zespół został powołany pod koniec 2023 roku. Jego celem jest tworzenie rekomendacji dla zarządu OpenAI i informowanie o zagrożeniach, które może przynieść rozwój poszczególnych modeli sztucznej inteligencji.
W ramach zespołu ds. bezpieczeństwa powstały trzy grupy: Safety Systems (obecnie działające modele), Preparedness (pionierskie modele) oraz Superalignment (superinteligentne modele).
Współprzewodniczącym tej ostatniej grupy, która zajmuje się dostosowywaniem narzędzi AI do interesów ludzi, był właśnie Leike. Grupa ta nazywana jest zespołem ds. superwyrównywania.
I resigned
— Jan Leike (@janleike) May 15, 2024
Czytaj też
Kolejne odejścia w OpenAI
Odejścia Sutskevera i Leike’a nastąpiły kilka tygodni po innych głośnych rezygnacjach czołowych ekspertów firmy.
Jak donosi The Information, dwóch dyrektorów, Diane Yoon i Chris Clark, odeszło kilka tygodni temu. Yoon był wiceprezesem ds. zasobów ludzkich, a Clark szefem inicjatyw non-profit i strategicznych.
OpenAI rozstało się też z badaczami Leopoldem Aschenbrennerem i Pavelem Izmailovem. Obaj pracowali w zespole ds. superwyrównania, podobnie jak Leike.
Bezpieczna sztuczna inteligencja?
W swoich wpisach zarówno Ilya Sutskever, jak i Sam Altman, zapewniają o pracach nad bezpieczną AI oraz AGI. Czy w rzeczywistości tak jest? Fala odejść twórców ChatuGPT i głównych ekspertów ds. bezpieczeństwa może świadczyć o czymś innym.
Przypomnijmy, że obaj panowie podpisali się pod apelem Centrum Bezpieczeństwa AI (Center for AI Safety), które ostrzega przed „katastrofalnym ryzykiem stwarzanym przez AI”. W apelu zaznaczono, że „zmniejszenie ryzyka wyginięcia przez sztuczną inteligencję powinno być globalnym priorytetem obok innych zagrożeń na skalę całych społeczeństw, takich jak pandemie i wojna nuklearna”.
Więcej na ten temat można przeczytać w naszym #Cybermagazynie TUTAJ.
Czytaj też
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].