Reklama

Technologie

OpenAI wzmacnia procedury bezpieczeństwa. Chodzi o rozwój sztucznej inteligencji

OpenAI buduje zespół ds. bezpieczeństwa AI.
OpenAI buduje zespół ds. bezpieczeństwa AI.
Autor. Jonathan Kemper/Unsplash

Firma zarządzana przez Sama Altmana chce, aby dyskusja na temat zagrożeń AI nie dotyczyła wyłącznie hipotetycznych scenariuszy, ale żeby była oparta na istniejących danych.

Reklama

Twórca ChatGPT dokonuje wzmocnienia zespołu do spraw bezpieczeństwa. Ma on odpowiadać m.in. za tworzenie rekomendacji dla zarządu OpenAI i informować o zagrożeniach, które może przynieść rozwój poszczególnych modeli sztucznej inteligencji.

Reklama

Na stronie firmy pojawiła się zaktualizowana wersja „Ram gotowości”. Wynika z nich, że specjalnie powołany zespół ma odpowiadać za tworzenie ocen, prognoz oraz środków zaradczych dotyczących zagrożeń, które może przynieść dalszy rozwój sztucznej inteligencji. Zespół ds. gotowości ma sprawić, że pionierskie modele od OpenAI pozostaną bezpieczne dla ludzkości.

Jak czytamy, w firmie funkcjonuje kilka zespołów zajmujących się bezpieczeństwem. Jednym z ich zadań jest minimalizacja zagrożeń związanych z rozwojem sztucznej inteligencji. „Nasze Systemy Bezpieczeństwa skupiają się na ograniczaniu niewłaściwego użycia obecnych modeli i produktów takich jak ChatGPT” – czytamy w oświadczeniu.

Reklama

Zagrożeniami mają zajmować się trzy oddzielne zespoły: Safety Systems (obecnie działające modele), Preparedness (pionierskie modele) oraz Superalignment (superinteligentne modele). Ich prace mają się wzajemnie uzupełniać.

Czytaj też

"Ramy gotowości" w wersji Beta

Do jakich zmian ma dojść w ramach funkcjonowania „Ram gotowości” (wersja Beta)? Jak czytamy na oficjalnej stronie OpenAI:

1) Ma być dokonywana ocena modeli, a ich wyniki mają być stale aktualizowane. Przy modelach granicznych testowane mają być ich granice, a także działania, których zadaniem będzie efektywne ograniczanie pojawiającego się ryzyka;

2) Zdefiniowane maja zostać tzw. progi ryzyka, a także wdrożone zostaną dodatkowe środki bezpieczeństwa (przy wysokim i krytycznie wysokim poziomie niebezpieczeństwa);

3) Działalność ma rozpocząć specjalnie przeznaczony do tego zespół nadzorujący bezpieczeństwo. Chodzi o Doradczą Grupę ds. Bezpieczeństwa, która dokonuje przeglądu raportów i przesyła je do Zarządu.

Firma w swoim poniedziałkowym oświadczeniu wyraża też gotowość do zewnętrznego audytu.

Czytaj też

Zespół ds. Gotowości

O budowie Zespołu ds. Gotowości pisaliśmy na łamach CyberDefence24 pod koniec października br. To m.in. wtedy wspominaliśmy,że OpenAI zależy na tym, aby Preparedness był gotowy do udzielenia odpowiedzi na wiele trudnych pytań, związanych z rozwojem sztucznej inteligencji.

Na ile niebezpieczne może być niewłaściwe wykorzystywanie pionierskich systemów AI? Jak mogą z tego skorzystać złośliwi aktorzy? To tylko kilka z zagrożeń na które trzeba zważać. Pozostaje mieć nadzieję, że odpowiedzi na pytania postawione powyżej nie będą zbyt pesymistyczne.

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na:\*[email protected].

Reklama

Komentarze

    Reklama