Polityka i prawo
Szef OpenAI: nasza firma może zakończyć działanie w UE z powodu AI Act
Szef firmy OpenAI stojącej m.in. za ChatemGPT Sam Altman stwierdził, że jego spółka może „zakończyć działalność” w Europie, jeśli nie będzie w stanie osiągnąć zgodności z przepisami Aktu o sztucznej inteligencji (AI Act), nad którym trwają prace w UE.
Sam Altman w środę zapowiedział, że jeśli jego firma - OpenAI - nie będzie w stanie osiągnąć zgodności z przepisami Aktu o sztucznej inteligencji (AI Act, którego założenia opisaliśmy tutaj ), to może zakończyć działalność w Unii Europejskiej.
Będziemy próbować, ale...
„Będziemy próbować osiągnąć tę zgodność" - powiedział Altman podczas dyskusji, która trwała na spotkaniu w londyńskiej uczelni University College London. To kolejny po Polsce przystanek na trasie lobbingowej szefa OpenAI , który próbuje przekonywać opinię publiczną w Europie do swojej wizji regulacji sztucznej inteligencji oraz jej wpływu na różne dziedziny naszego życia.
Altman podkreślił też, że OpenAI obecnie odnosi się bardzo krytycznie do projektowanych w UE przepisów w ich aktualnym brzmieniu. Dlaczego?
Systemy wysokiego ryzyka
Szefowi OpenAI nie podoba się definicja systemów wysokiego ryzyka, które są najsilniej obwarowanym prawnie elementem AI Act. Do takich systemów zaliczać się mają m.in. algorytmy generatywnej sztucznej inteligencji w rodzaju ChatuGPT lub GPT-4.
Ujęcie ich w zbiorze systemów wysokiego ryzyka przez unijne regulacje nakłada na dostawców systemów obowiązki spełnienia wyśrubowanych norm bezpieczeństwa oraz audytowania ich.
Jak przypomina magazyn „Time", OpenAI nie zgadza się z klasyfikacją swoich produktów jako systemów wysokiego ryzyka.
Altman w środę podtrzymał to stanowisko mówiąc, że jeśli jego firmie nie uda się osiągnąć zgodności z wymaganiami stawianymi przez AI Act, to zakończy działalność w Europie. Tymczasem, jeszcze we wtorek spekulowano, że firma może otworzyć biuro w Polsce . Jego zdaniem, problem ze spełnieniem wymogów projektowanych przepisów ma charakter „ograniczeń technicznych".
Detale
Szef OpenAI stwierdził, że to, co jest w AI Act niewłaściwe i powinno zostać zmienione, to „szczegóły, które naprawdę mają znaczenie".
Jakie to szczegóły? Nie sprecyzował - ale AI Act jest skonstruowany tak, aby to właśnie szczegóły decydowały o ochronie użytkowników i ich interesów, przenosząc punkt ciężkości z ochrony - jak to miało miejsce do tej pory - biznesu wielkich firm. Tymczasem, Altman ocenił, że chciałby, aby regulacje sztucznej inteligencji „były czymś pomiędzy tradycyjnym podejściem europejskim i tradycyjnym podejściem z USA".
Czy oznacza to preferencję w kierunku bardzo ogólnych zapisów, które co prawda istnieją, ale ich przestrzeganie i wykonanie opiera się na uznaniowości i uzusach powstających na bazie precedensowych orzeczeń po latach procesów? Być może.
Altman chce mieć wpływ
Sam Altman podczas swojej trasy po Europie skupia się nie tylko na lobbingu regulacyjnym, ale i na prezentowaniu optymistycznej wizji wpływu sztucznej inteligencji na wiele dziedzin naszego życia, jednocześnie uwzględniając temat ryzyka, takiego jak np. wykorzystanie tej technologii do dezinformacji.
Zdaniem szefa OpenAI, korzyści z AI są jednak większe niż zagrożenia. W rozmowie z magazynem „Time" przyznał, że w 2024 r. jego firma będzie chciała zacząć interweniować w procesy redystrybucji środków, tak, jak teraz robi to w zakresie wpływania na politykę regulacyjną wobec sztucznej inteligencji.
Obecnie, jak pisze magazyn, spółka Altmana prowadzi m.in. pięcioletni program badawczy poświęcony zagadnieniom wokół dochodu podstawowego. Ma zakończyć się w przyszłym roku i właśnie na kanwie tego projektu Altman chce zacząć brać udział w dyskusjach społeczno-gospodarczych.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].
Haertle: Każdego da się zhakować
Materiał sponsorowany