Reklama

Technologie

Microsoft ma plan na zarządzanie AI. Twierdzi, że jest odpowiedzialny

Autor. Pixabay

Sztuczna inteligencja to zdecydowanie kierunek rozwoju, w którym idą wszystkie największe korporacje, na czele z Microsoft. Firma przedstawiła własny plan na wdrożenie AI oraz rekomendacje „zarządzania sztuczną inteligencją”. Czy etyczne podejście do systemów SI jest w ogóle możliwe?

Reklama

W tym tygodniu na oficjalnym blogu firmowym Brad Smith, szef Microsoft skupił się na rozwoju sztucznej inteligencji i jej wpływie na przyszłość. Dodatkowo w raporcie „Governing AI: A Blueprint for the Future” wskazano pięć rekomendacji, jakie powinno się rozważyć w podejściu politycznym, prawnym i regulacyjnym do sztucznej inteligencji. Przedstawiono także założenia firmy w kwestii etyki AI, określając to jako „odpowiedzialne podejście”.

Reklama

„Kraje na całym świecie zadają wspólnie pytania. Jak możemy wykorzystać tę nową technologię do rozwiązania naszych problemów? Jak uniknąć nowych problemów, które może spowodować lub jak nimi zarządzać? Jak kontrolować technologię, która jest tak potężna? Pytania te wymagają nie tylko szerokiej i przemyślanej rozmowy, ale zdecydowanego i skutecznego działania” – stwierdził Brad Smith w swoim wpisie.

Dodał, że już od 2016 roku firma zdefiniowała, opublikowała i wdrożyła zasady etyczne względem AI, a obecnie 350 osób pracuje nad „odpowiedzialną sztuczną inteligencją w firmie Microsoft”.

Reklama

Czytaj też

Plan na odpowiedzialny rozwój AI

Technologiczny gigant przedstawił również pięciopunktowy „plan publicznego zarządzania sztuczną inteligencją”, który zakłada odpowiednie podejście polityczne i regulacyjne do wyzwań, jakie niesie ze sobą rozwój sztucznej inteligencji.

Jak wskazano:

  • po pierwsze potrzebne jest wdrożenie nowych, rządowych ram bezpieczeństwa sztucznej inteligencji;
  • po drugie: konieczne są wymagania dotyczące „hamulców” bezpieczeństwa dla systemów AI, które kontrolują infrastrukturę krytyczną, ponieważ jest to związane ze zbyt dużym ryzykiem;
  • po trzecie: potrzeba opracowania ram prawnych i regulacyjnych w oparciu o technologię AI, co powinno odzwierciedlać stan faktyczny – obowiązki regulacyjne powinny dotyczyć podmiotów, które będą odgrywały istotną rolę w zarządzaniu różnymi aspektami technologii. W tym punkcie mieści się również kwestia oznaczania treści wyprodukowanych przez AI i informowania odbiorców (np. za pomocą etykiety czy znaku wodnego), że dany plik audio/wideo został wyprodukowany przez system, a nie przez człowieka. To miałoby uchronić społeczeństwo m.in. przed zagrożeniem wynikającym z rozpowszechniania deepfake’ów;
  • po czwarte: promowanie przejrzystości i zapewnienie środowiskom naukowym oraz organizacjom non-profit dostępu do sztucznej inteligencji (Microsoft zobowiązał się do corocznego raportu na temat przejrzystych procedur w opracowaniu i wykorzystaniu AI);
  • po piąte: dążenie do partnerstw publiczno-prywatnych, by wykorzystać AI jako „skuteczne narzędzie do sprostania wyzwaniom społecznym, związanym z technologią.

Czytaj też

Brad Smith ocenił także, że „potrzebne są prace, aby wykorzystać sztuczną inteligencję do ochrony demokracji i praw podstawowych, zapewnić szeroki dostęp do umiejętności sztucznej inteligencji”. Jego zdaniem, „daje to okazję do myślenia na dużą skalę i odważnego działania”.

Czytaj też

Giganci chcą regulacji?

Przypomnijmy, że to nie jedyny głos w dyskusji o AI, który wzywa do konieczności uporządkowania kwestii sztucznej inteligencji w użytku publicznym.

Sam Altman, twórca OpenAI (zresztą firmy, w którą Microsoft zainwestował nieoficjalnie 10 mld dolarów) najpierw wzywał Kongres do regulacji, by później w Polsce mówić, że "może być zagrożeniem dla demokracji" , a następnie ocenić, że Akt o sztucznej inteligencji (tzw. AI Act nad którym pracuje UE) "jest zbyt restrykcyjny".

Podstawowym pytaniem pozostaje zatem czy giganci tech naprawdę tych regulacji oczekują, czy raczej dbają o własne interesy - ubiegając pracujących nad przepisami - by pośrednio mieć wpływ, jak zapisy projektów - dotyczące działalności ich firm - będą w rzeczywistości wyglądały.

Czytaj też

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Haertle: Każdego da się zhakować

Materiał sponsorowany

Komentarze

    Reklama