Polityka i prawo
Big Techy dogadały się z Białym Domem. Chodzi o sztuczną inteligencję
Amazon, Google, Meta, Microsoft i inne Big Techy zgodziły się na przyjęcie wytycznych bezpieczeństwa dla sztucznej inteligencji opracowanych przez Biały Dom. Nie oznacza to jednak wiążących regulacji, a dobrowolne i deklaratywne przyjęcie dobrych praktyk.
Administracja prezydenta USA Joe Bidena opracowała zestaw dobrych praktyk i wytycznych dla bezpieczeństwa sztucznej inteligencji, które zgodziły się przyjąć największe firmy technologiczne rozwijające obecnie produkty oparte o sztuczną inteligencję.
Wśród firm, które przyjęły zasady, są Amazon, Google, Meta, Microsoft, a także OpenAI, jak i startupy: Anthropic oraz Inflection.
Zgoda na zasady Białego Domu jest dobrowolna i obejmuje deklarację zaangażowania w działania na rzecz tego, aby produkty AI opracowywane przez firmy były bezpieczne - zanim trafią na rynek i do rąk użytkowników. Jak dodaje AP , w niektórych wytycznych, na jakie zgodziły się firmy, zawarto wezwania do zewnętrznych audytów algorytmów komercyjnych, jednak nie wskazano, kto ma je przeprowadzić ani w jaki sposób egzekwowana będzie odpowiedzialność firm za te kwestie.
Bezpieczeństwo u podstaw
Jednym z najważniejszych zapisów w wytycznych ma być bezpieczeństwo . Firmy, które zgodziły się na ich przyjęcie, zadeklarowały gotowość do testów bezpieczeństwa - mają one być realizowane we współpracy z niezależnymi ekspertami i chronić przed najważniejszymi zidentyfikowanymi rodzajami ryzyka.
Firmy zgodziły się także na przyjęcie wspólnych zasad, co do informowania o podatnościach bezpieczeństwa swoich systemów, a także wykorzystania specjalnych cyfrowych oznaczeń - "znaków wodnych" - informujących użytkowników o tym, że mają do czynienia z treścią wygenerowaną przez algorytmy, a nie stworzoną przez człowieka (mowa tu o cyfrowo generowanych obrazach, a także materiałach typu deep fake).
Wykryte zagrożenia i luki w produktach mają być podawane do publicznej wiadomości. Firmy mają również zachować przejrzystość w zakresie ewentualnych wad i braku obiektywności działania algorytmów .
Deklaratywne zobowiązania
Deklaracje złożone przez potentatów AI mają być bezpośrednim środkiem zaradczym na ryzyko, które niesie z sobą szybki rozwój sztucznej inteligencji. Nie zastąpią regulacji - opracowanie tych ostatnich jednak wymaga czasu, nad czym obecnie coraz intensywniej pracuje Kongres.
Firmy technologiczne, wbrew powszechnemu założeniu, chcą regulacji - bo aktywnie uczestnicząc w procesie ich powstawania, mogą mieć na nie największy wpływ i wylobbować rozwiązania dla nich korzystne, tak jak to miało miejsce w przypadku unijnego Aktu o sztucznej inteligencji . Istnieje tu jednak ryzyko, że prawo regulujące funkcjonowanie nowych technologii nie tylko będzie wówczas służyło przede wszystkim biznesowi, nie zaś ochronie użytkowników, a także będzie dyskryminowało mniejszych graczy na rynku - bo w procesach lobbingowych to wielkie koncerny mają największą siłę przebicia .
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].
Haertle: Każdego da się zhakować
Materiał sponsorowany