Polityka i prawo
OpenAI wylobbowała osłabienie unijnych regulacji sztucznej inteligencji
Firma OpenAI Samuela Altmana wylobbowała osłabienie unijnych regulacji sztucznej inteligencji. Nowe prawo będzie w mniejszym stopniu chroniło przed nadużyciami z wykorzystaniem systemów opartych o AI. Kolejny raz daliśmy się zwieść iluzji odpowiedzialności biznesu.
Magazyn „Time" opisuje lobbing, w jaki zaangażowała się firma OpenAI Samuela Altmana, mająca na koncie m.in. rewolucyjny ChatGPT, aby osłabić unijne regulacje sztucznej inteligencji.
Przypomnijmy: Sam Altman zjechał świat w podróży, w ramach której przekonywał na otwartych spotkaniach, że regulacje branży sztucznej inteligencji są potrzebne, a on sam chce działać wraz z legislatorami i rządami po to, aby jak najlepiej zabezpieczyć społeczeństwa wchodzące w epokę rewolucji wywołanej przez algorytmy.
Na naszych łamach wielokrotnie pisaliśmy już jednak, że w rzeczywistości spotkania te - również to, które miało miejsce w Polsce w maju - to lobbing, a Sam Altman nie jest filantropem "chcącym dobra każdego i każdej z nas", ale biznesmenem lobbującym za korzystnymi dla swojego biznesu rozwiązaniami prawnymi.
Lobbing Altmana miał również na celu zmonopolizowanie przez OpenAI areny wpływu na regulatorów - tak, aby to właśnie ta firma zabierała decydujący głos w kwestiach dotyczących tego, jak wyglądać będzie prawo regulujące sztuczną inteligencję.
Czytaj też
Twardy lobbing i presja na Unię
Firma OpenAI Sama Altmana skutecznie wylobbowała zmiany w Akcie o sztucznej inteligencji - pierwszej kompleksowej regulacji AI na Zachodzie, której głównym celem było zbudowanie podejścia do zagrożeń opartego na analizie ryzyka i ochrona wszystkich mieszkańców cyfrowego świata przed nadużyciami z wykorzystaniem systemów sztucznej inteligencji.
O założeniach AI Act pisaliśmy na łamach CyberDefence24.pl w tym tekście . Informowaliśmy również o kontrowersyjnych poprawkach , które w ostatniej chwili przed głosowaniem na poziomie Parlamentu Europejskiego zaproponowała Europejska Partia Ludowa. Poprawki te w głosowaniu jednak nie przeszły - co także odnotowaliśmy .
W naszym serwisie można również przeczytać, jak Altman groził Unii, iż jeśli wymogi Aktu o sztucznej inteligencji okażą się dla jego firmy zbyt trudne do spełnienia, to on sam wycofa swój biznes z obszaru UE. Szybko później te słowa odwołał. Altmanowi od samego początku chodziło o to, aby wymusić na unijnych regulatorach osłabienie zapisów prawnych i sprawienie, że będą one bardziej korzystne dla jego działalności.
Magazyn „Time" korzystając z prawa dostępu do informacji dotarł do dokumentów w Komisji Europejskiej, które jasno pokazują, jak działał dyrektor generalny OpenAI, m.in. proponując poprawki, które znalazły się w ostatecznej wersji tekstu AI Act i przejdą dalej - do trilogów.
Czytaj też
Jak wyglądały naciski Altmana?
Przede wszystkim chodziło o to, żeby systemy sztucznej inteligencji ogólnego przeznaczenia, takie jak te, które opracowuje firma OpenAI, nie były uznane za systemy wysokiego ryzyka przez unijne prawo. To właśnie systemy wysokiego ryzyka obarczone są w przepisach Aktu o sztucznej inteligencji dodatkowymi obowiązkami i wymogami przejrzystości, nadzoru, a także audytowania algorytmów - aby zapobiec ich niezgodnemu z przeznaczeniem zastosowaniu.
„Time" pisze, że OpenAI znalazła się tym samym po jednej stronie z koncernem Microsoft, który zainwestował w nią - według magazynu - 13 mld dolarów, a także z Google'em. Obaj giganci Doliny Krzemowej już wcześniej wywierali presję na UE po to, aby osłabić zobowiązania wynikające z AI Act dla firm produkujących rozwiązania oparte o sztuczną inteligencję.
Skuteczne okazały się nie tylko ostatnie zabiegi Altmana - do spotkań z przedstawicielami OpenAI w Komisji Europejskiej dochodziło już w czerwcu ub. roku i ewidentnie zakończyły się one sukcesem dla spółki, która przedstawiała się jako świadoma zagrożeń i ryzyka związanego z rozwojem sztucznej inteligencji, ale zarazem pełna obaw o „przeregulowanie" branży, co jest częstym argumentem podnoszonym przez technoentuzjastów.
Jedno z ostatnich spotkań miało miejsce 31 marca tego roku, kiedy przedstawiciele OpenAI demonstrowali unijnym urzędnikom funkcje bezpieczeństwa modelu ChatGPT i przekonywali, że narzędzie produkowane przez firmy będzie uczyło się samo tego, co nie powinno wchodzić w zakres jego działania, a firma jest na tyle odpowiedzialna, aby uregulować się sama.
Czytaj też
Urok Doliny Krzemowej wciąż działa
O opinię w sprawie działań lobbingowych Altmana zapytaliśmy związanego z Polskim Instytutem Ekonomicznym (PIE) Krystiana Łukasika, ekonomistę zajmującego się gospodarką cyfrową. Jednym z pytań, które mu zadaliśmy, było to dotyczące podatności Polski na działania wizerunkowe firm technologicznych - wizyta szefa OpenAI w naszym kraju została przyjęta bardzo dobrze i towarzyszyło jej relatywnie mało krytycyzmu obecnego w innych dyskusjach z Altmanem.
„Z jednej strony, wciąż jesteśmy pod wpływem uroku firm z Doliny Krzemowej. Jest to ekscytujące, gdy prezes jednej z najgłośniejszych firm ostatnich miesięcy przyjeżdża do nas w odwiedziny" - konstatuje Łukasik. „Z drugiej strony, działania lobbystów niestety są po prostu nieprzejrzyste. Na szczęście, KE przetrzymuje protokoły ze spotkań i na prośbę dociekliwych dziennikarzy udostępniła dokumenty, które nie pozostawiają wątpliwości, że firmie chodzi głównie o osłabienie europejskiego prawa" - dodaje ekspert i mówi, że „oczywiste po co Altman przyjechał do Europy, jest dla osób, które od dawna śledzą poczynania Big Techu w Unii Europejskiej".
Łukasik podkreśla, że to, co udało się osiągnąć dyrektorowi generalnemu OpenAI, to usunięcie frazy obecnej we wcześniejszych wersjach Aktu o sztucznej inteligencji, która sugerowała, iż systemy AI ogólnego przeznaczenia powinny ze swojej natury być uważane za obarczone wysokim ryzykiem. „Z perspektywy firmy oznacza to mniejsze koszty związane z wymogami dotyczącymi przejrzystości algorytmu czy ludzkiego nadzoru nad nimi" - mówi analityk, tłumacząc, dlaczego OpenAI zależało na usunięciu zapisów. „Z kolei z perspektywy użytkowników i użytkowniczek oznacza to zwyczajnie mniejszą ochronę przed szkodliwym społecznie wykorzystaniem AI" - dodaje.
Czytaj też
Czy UE zdolna jest oprzeć się lobbingowi?
Zdaniem Łukasika, nie jest prawdą, że Unia Europejska jest wyjątkowo nieodporna na lobbing. „Mamy jedne z najlepszych i najostrzejszych regulacji gospodarki cyfrowej na świecie" - zwraca uwagę. „Natomiast, korporacje technologiczne co roku wydają dziesiątki milionów euro na lobbing w Brukseli i Waszyngtonie, są to nieporównywalnie większe budżety niż te, którymi dysponują organizacje pozarządowe opowiadające się za interesem większości społeczeństwa" - podkreśla.
Ekspert wskazuje, że dla większości organizacji pozarządowych problemem może być nawet utrzymanie brukselskiego biura pozwalającego być bliżej bieżących wydarzeń w świecie regulacji technologicznych, tymczasem - dla Big Techów nie są to duże wydatki. „To między innymi stąd bierze się ich większa moc przekonywania do swoich racji" - komentuje specjalista z PIE.
Więcej o lobbingu firm technologicznych w Unii Europejskiej można przeczytać na naszych łamach w tej analizie .
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].