Cyberbezpieczeństwo
OpenAI buduje specjalny zespół. Chce zminimalizować zagrożenie AI
Rozwijając sztuczną inteligencję firma Sama Altmana chce zapobiec ewentualnej katastrofie, którą może spowodować niepożądany rozwój AI. W tym celu powołuje do życia nowy zespół.
OpenAI buduje Zespół ds. Gotowości (org. Preparedness Team). Ma to być kolejny krok, którego celem jest minimalizacja zagrożeń, jakie może wygenerować rozwój sztucznej inteligencji. Na czele zespołu stanie prof. Aleksander Mądry (Center for Deployable Machine Learning, Massachusetss Institute of Technology).
W specjalnym oświadczeniu firma przypomniała o lipcowym dołączeniu do Frontier Model Forum (współtworzonego przez Microsoft, Anthropic oraz Google). Jest to grupa, która według założeń, ma skupiać się na promowaniu odpowiedzialnych prac nad rozwojem sztucznej inteligencji. Więcej na jej temat pisaliśmy na CyberDefence24.
Komunikat dotyczy też zbliżającego się szczytu AI, który odbędzie się w Wielkiej Brytanii 1 i 2 listopada (AI Safety Summit – red.). Firma zobowiązała się do przekazania organizatorom szczytu informacji dotyczących postępów prac w zakresie bezpieczeństwa sztucznej inteligencji.
Czytaj też
Szansa i ryzyko
Na stronie OpenAI czytamy, że jej władze wierzą, iż pionierskie modele AI - które swoim zaawansowaniem z pewnością przewyższą dostępne dziś rozwiązania - „mogą być korzyścią dla całej ludzkości”. Za tym potencjałem, kryje się jednak większe ryzyko zagrożeń, jakie mogą wyrządzić.
Dlatego też firmie zależy na tym, aby Preparedness był w stanie udzielić odpowiedzi na pytania takie jak:
- Na ile niebezpieczne może być niewłaściwe wykorzystywanie pionierskich systemów AI?
- Jak mogą z tego skorzystać złośliwi aktorzy?
- Jak budować struktury mogące obserwować, oceniać i chronić przed niebezpiecznymi działaniami sztucznej inteligencji?
Czytaj też
## Konkurs OpenAI
Jak czytamy w komunikacie, w związku z otwarciem nowej jednostki, OpenAI organizuje konkurs, w ramach którego firma zyska nowe pomysły i rozwiązania problemu.
Poprzez odpowiedni formularz zainteresowane osoby mogą wcielić się w rolę złośliwego aktora, proponując najbardziej „katastrofalny scenariusz użycia modelu”. Jak czytamy, chodzi np. o potencjalne użycie narzędzi takich jak np. GPT-4 czy DALLE-3 i wykorzystanie ich do „takiego wpływu na myślenie pracowników budynków infrastruktury krytycznej, aby skłonić ich do instalacji złośliwego oprogramowania, które umożliwi wyłączenie sieci energetycznej”.
Propozycje można zgłaszać do końca tego roku. Dziesięć najlepszych rozwiązań zostanie nagrodzone kwotą 25 tys. dolarów w formie kredytów (do wykorzystania w API OpenAI).
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na:\*[email protected].\*