Technologie
OpenAI: Badacze ostrzegali zarząd o przełomie w AI. „Zagrożenie dla ludzkości”?
Ostatnie wydarzenia w OpenAI niewątpliwie przejdą do historii. Najpierw zwolnienie Sama Altmana, następnie jego przejście do Microsoft, masowy protest pracowników OpenAI, by zakończyć tę technologiczną telenowelę… powrotem Altmana na stanowisko. To jednak nie całość historii. Badacze OpenAI mieli ostrzegać zarząd o przełomie, jaki ich zdaniem może „stanowić zagrożenie dla ludzkości” w badaniach nad sztuczną inteligencją. Było to tuż przed wyrzuceniem dyrektora generalnego firmy.
Kilku pracowników naukowych na kilka dni przed zwolnieniem dyrektora generalnego OpenAI Sama Altmana napisało list do zarządu, ostrzegając przed „potężnym odkryciem sztucznej inteligencji, które ich zdaniem może zagrozić ludzkości” – podaje Reuters, powołując się na dwa niezależne źródła.
List miał być jednym z argumentów (na długiej liście skarg – jak twierdzą źródła) z powodu których zarząd miał zdecydować o zwolnieniu Altmana. Innym czynnikiem miały być obawy o komercjalizację postępów w rozwoju AI, nim realnie zespół zrozumie ich konsekwencje (agencja nie poznała oryginalnej treści listu, powołuje się jedynie na informacje od informatorów - red.).
W wewnętrznej wiadomości do pracowników, OpenAI miało potwierdzić istnienie projektu nazwanego Q (Q-Star), który – zdaniem serwisu powołującego się na źródła - „może być przełomem w pracach startupu nad tak zwaną sztuczną inteligencją ogólną (AGI)”.
Nowy model miałby być w stanie rozwiązać problem matematyczny, co ma „napawać badaczy optymizmem”, bo to właśnie kwestia rozwoju w dziedzinie matematyki ma pokazywać realny postęp sztucznej inteligencji, która potrafiłaby podać jedną, prawidłową odpowiedź. Obecnie AI jest coraz lepsza w tłumaczeniu i pisaniu w oparciu o przetworzone dane, ale wciąż daje róźne odpowiedzi na zadane pytania lub popełnia błędy.
Czytaj też
Ostrzeżenie badaczy OpenAI
Badacze OpenAI w swoim piśmie do zarządu mieli poinformować o postępach w pracach nad AGI (i o projekcie „Q”) i o „potencjalnym zagrożeniu, jakie stanowi dla ludzkości”. Nie podano jednak dokładnych informacji, w jakim zakresie stanowi ryzyko dla bezpieczeństwa.
Sam Altman na szczycie Współpracy Gospodarczej Azji i Pacyfiku miał mówić, że „w ciągu ostatnich kilku tygodni czwarty raz przesunęli granicę odkryć, a dokonanie tego to zawodowy zaszczyt w życiu” – mówił. Pytał też publicznie czy „to narzędzie, czy stworzenie, które zbudowali”. Dzień później został zwolniony.
Przypomnijmy, że zarząd podał w komunikacie, iż powodem pożegnania Altmana są następujące argumenty: „zarząd nie ma już zaufania do jego zdolności do dalszego kierowania OpenAI” oraz „nie był konsekwentnie szczery w swojej komunikacji z zarządem”.
Przebieg tych wydarzeń możecie prześledzić na naszych łamach w poniższych materiałach.
Czytaj też
Czytaj też
Czytaj też
Czytaj też
Sam Altman ostrzegał przed AI
Sam Altman sam ostrzegał przed konsekwencjami rozwoju sztucznej inteligencji w ramach swojej „światowej trasy” - jak mówił, zbierał wtedy opinie na temat ChatuGPT”. W maju br. zawitał także do Polski, gdzie na Uniwersytecie Warszawskim mówił, że AI będzie „jedną z największych sił, stworzonych w historii ludzkości”.
Według niego,”trzeba globalnie przemyśleć jak ten rozwój opanować, jak rozwiązać kwestie bezpieczeństwa i jak stworzyć globalny system zarządzania”. Dodał, że AI może być zagrożeniem dla demokracji.
Z kolei w czasie wizyty w Zjednoczonych Emiratach Arabskich stwierdził, że do nadzoru nad sztuczną inteligencją potrzeba międzynarodowej instytucji na wzór agendy ONZ zajmującej się atomem.
Czytaj też
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].
/NB