Reklama

Polityka i prawo

Big Techy dogadały się z Białym Domem. Chodzi o sztuczną inteligencję

Autor. Duncan Rawlinson - Duncan.co / Flickr

Amazon, Google, Meta, Microsoft i inne Big Techy zgodziły się na przyjęcie wytycznych bezpieczeństwa dla sztucznej inteligencji opracowanych przez Biały Dom. Nie oznacza to jednak wiążących regulacji, a dobrowolne i deklaratywne przyjęcie dobrych praktyk.

Reklama

Administracja prezydenta USA Joe Bidena opracowała zestaw dobrych praktyk i wytycznych dla bezpieczeństwa sztucznej inteligencji, które zgodziły się przyjąć największe firmy technologiczne rozwijające obecnie produkty oparte o sztuczną inteligencję.

Reklama

Wśród firm, które przyjęły zasady, są Amazon, Google, Meta, Microsoft, a także OpenAI, jak i startupy: Anthropic oraz Inflection.

Zgoda na zasady Białego Domu jest dobrowolna i obejmuje deklarację zaangażowania w działania na rzecz tego, aby produkty AI opracowywane przez firmy były bezpieczne - zanim trafią na rynek i do rąk użytkowników. Jak dodaje AP , w niektórych wytycznych, na jakie zgodziły się firmy, zawarto wezwania do zewnętrznych audytów algorytmów komercyjnych, jednak nie wskazano, kto ma je przeprowadzić ani w jaki sposób egzekwowana będzie odpowiedzialność firm za te kwestie.

Reklama

Bezpieczeństwo u podstaw

Jednym z najważniejszych zapisów w wytycznych ma być bezpieczeństwo . Firmy, które zgodziły się na ich przyjęcie, zadeklarowały gotowość do testów bezpieczeństwa - mają one być realizowane we współpracy z niezależnymi ekspertami i chronić przed najważniejszymi zidentyfikowanymi rodzajami ryzyka.

Firmy zgodziły się także na przyjęcie wspólnych zasad, co do informowania o podatnościach bezpieczeństwa swoich systemów, a także wykorzystania specjalnych cyfrowych oznaczeń - "znaków wodnych" - informujących użytkowników o tym, że mają do czynienia z treścią wygenerowaną przez algorytmy, a nie stworzoną przez człowieka (mowa tu o cyfrowo generowanych obrazach, a także materiałach typu deep fake).

Wykryte zagrożenia i luki w produktach mają być podawane do publicznej wiadomości. Firmy mają również zachować przejrzystość w zakresie ewentualnych wad i braku obiektywności działania algorytmów .

Deklaratywne zobowiązania

Deklaracje złożone przez potentatów AI mają być bezpośrednim środkiem zaradczym na ryzyko, które niesie z sobą szybki rozwój sztucznej inteligencji. Nie zastąpią regulacji - opracowanie tych ostatnich jednak wymaga czasu, nad czym obecnie coraz intensywniej pracuje Kongres.

Firmy technologiczne, wbrew powszechnemu założeniu, chcą regulacji - bo aktywnie uczestnicząc w procesie ich powstawania, mogą mieć na nie największy wpływ i wylobbować rozwiązania dla nich korzystne, tak jak to miało miejsce w przypadku unijnego Aktu o sztucznej inteligencji . Istnieje tu jednak ryzyko, że prawo regulujące funkcjonowanie nowych technologii nie tylko będzie wówczas służyło przede wszystkim biznesowi, nie zaś ochronie użytkowników, a także będzie dyskryminowało mniejszych graczy na rynku - bo w procesach lobbingowych to wielkie koncerny mają największą siłę przebicia .

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama
Reklama

Komentarze