Reklama

Technologie

AI Safety Summit. Zawarto umowę o testach modeli sztucznej inteligencji

Podczas pierwszego szczytu bezpieczeństwa AI zapadły ważne ustalenia
Podczas pierwszego szczytu bezpieczeństwa AI zapadły ważne ustalenia
Autor. Number 10 / Flickr

Rządy będą mogły testować modele sztucznej inteligencji ośmiu wiodących firm przed ich wypuszczeniem na rynek - właśnie na to opiewa zawarta podczas zakończonego 2 listopada pierwszego globalnego szczytu bezpieczeństwa AI umowa. Sygnowało ją 10 krajów oraz blok Unii Europejskiej.

Reklama

O podpisaniu umowy dotyczącej możliwości testowania przez rządy 10 krajów oraz państw UE modeli sztucznej inteligencji ośmiu firm jeszcze zanim trafią na rynek, w czwartek poinformował brytyjski premier Rishi Sunak.

Reklama

Sunak to inicjator pierwszego globalnego szczytu dotyczącego bezpieczeństwa sztucznej inteligencji, który w dniach 1-2 listopada odbywał się w słynnym Bletchley Park w Anglii. O tym, jakie ustalenia zapadły pierwszego dnia obrad, można przeczytać na naszych łamach w tym tekście. Wcześniej zaś pisaliśmy o kontrowersjach, jakie wzbudziło jeszcze przed szczytem zaproszenie do udziału w nim przedstawicieli Chin.

Ufać, ale sprawdzać

Umowa, która daje rządom możliwość testowania nowych modeli AI, została sygnowana przez Australię, Kanadę, Niemcy, Francję, Włochy, Japonię, Koreę Południową, Singapur, Wielką Brytanię, Stany Zjednoczone oraz blok państw Unii Europejskiej. Brytyjski premier podkreślił, że państwa te myślą bardzo podobnie, gdy mowa o bezpieczeństwie systemów sztucznej inteligencji i kierują się zbliżonymi wartościami.

Reklama

„Do tej pory jedynymi osobami, które mogły testować bezpieczeństwo nowych modeli AI, byli eksperci firm, które je opracowują. To musi się zmienić” - powiedział Rishi Sunak podczas spotkania z dziennikarzami po ceremonii zamknięcia szczytu. Jego słowa cytuje serwis Politico.

„Rządy, które myślą w podobny sposób i firmy rozwijające AI osiągnęły dziś kluczowe porozumienie. Będziemy razem pracować nad testami bezpieczeństwa nowych modeli sztucznej inteligencji, zanim trafią na rynek” - powiedział Sunak.

Jak dodał, zawarcie takiej umowy było możliwe dzięki uzgodnieniom, które brytyjski rząd opracował razem z amerykańską administracją; oba kraje stworzą działające w skali globalnej instytucje odpowiedzialne za testowanie AI, które pozostaną pod egidą administracji państwowej i będą stanowiły przeciwwagę dla ekspertyz dokonywanych przez przedstawicieli biznesu. Premier Zjednoczonego Królestwa podkreślił, że to szczególnie istotne w kontekście najbardziej zaawansowanych modeli sztucznej inteligencji.

Które firmy poddadzą się testom?

Według Rishiego Sunaka, testy objęte multilateralną umową będą dotyczyły produktów ośmiu firm. Są to: Amazon Web Services, Anthropic, Google, Google DeepMind, Inflection AI, Meta, Microsoft, Mistral AI i OpenAI. To właśnie te spółki zgodziły się na poszerzenie dostępu do testowania swoich produktów o kolejne kraje - wcześniej na mocy unilateralnej umowy z Wielką Brytanią, testować mógł zespół Frontier AI Taskforce, o którego powstaniu pisaliśmy na naszych łamach tutaj.

Warto tu jednak podkreślić, że udostępnienie modeli do testów jest dobrowolne. Obecnie tylko rozporządzenie wykonawcze podpisane w poniedziałek przez prezydenta USA Joe Bidena ma moc prawną do zobowiązania firm, aby przekazywały administracji rządowej informacje dotyczące bezpieczeństwa systemów sztucznej inteligencji. Na odpowiednie legislacje po stronie europejskiej wciąż czekamy. Ma je wprowadzić Akt o sztucznej inteligencji, który znajduje się w fazie trilogów, a który wejdzie w życie nie prędzej niż w 2025 r.

Międzynarodowa rada ds. ryzyka

Rezultatem zakończonego w czwartek szczytu jest też umowa dotycząca utworzenia międzynarodowej rady (bądź też panelu) doradczej dotyczącej ryzyka granicznych systemów sztucznej inteligencji. Rada ma być złożona z przedstawicieli 28 państw, które wzięły udział w obradach pierwszego szczytu.

Jednym z działań podejmowanych w ramach rady ma być wydawanie raportów, które jednak nie będą zawierały rekomendacji i wskazówek dla polityków oraz osób odpowiedzialnych za działania legislacyjne, ale informować o tym, jak wyglądają kwestie związane z ryzykiem AI. Odbiorcami publikacji ma być przede wszystkim administracja na poziomie krajowym i międzynarodowym. Pierwszy z raportów, za który odpowiedzialny ma być Yoshua Bengio, opublikowany ma zostać przy drugim szczycie bezpieczeństwa AI, który w pierwszej połowie przyszłego roku odbędzie się w Korei Południowej.

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na:[email protected].

Reklama

Komentarze

    Reklama