Technologie
#CyberMagazyn: AI Act ruszył z martwego punktu. Koniec sporu o modele bazowe?
Zewsząd docierają do nas coraz to nowsze przykłady oszustw z wykorzystaniem sztucznej inteligencji. Zapobiec temu, przynajmniej częściowo, może AI Act – regulacje przygotowywane przez Unię Europejską. Te jednak stanęły w martwym punkcie, ponieważ Francja, Niemcy i Włochy nie chcą stracić na innowacyjności po nałożeniu regulacji na tzw. modele bazowe (ang.foundation models). Ostanie wieści napawają jednak optymizmem.
Czym właściwie są modele podstawowe?
Modele podstawowe to po prostu modele uczenia maszynowego o bardzo szerokim spektrum zastosowań. Pojęcie to jest stosunkowo nowe. Powstało w sierpniu 2021 roku.
Dlaczego tak późno? Otóż wcześniej sądzono, że dany model uczenia maszynowego musi być przygotowany specjalnie do danego zadania. Oznaczało to, że jeden model musi być przygotowany do odpowiadania na pytania, kolejny – do tworzenia tłumaczeń, a jeszcze inny – do streszczania tekstów. Przełom nastąpił, gdy wprowadzono kolejne wersje modelu GPT, a przede wszystkim GPT3.
Czytaj też
Multizadaniowość i multimodalność
Taka sieć neuronowa jest trenowana jedynie do tego, aby – po pokazaniu jej początku tekstu – generowała jego dalszy ciąg, słowo po słowie (np. treści na stronę Wikipedii). Jak się jednak okazało, odpowiednio duży model, wytrenowany na odpowiednio dużej liczbie, dokumentów, może realizować różnorakie zadania. Wynika to z faktu, że wystarczająco dobry generator tekstu może generować zarówno streszczenia, jak i tłumaczenia i odpowiedzi. Nie trzeba go zatem przygotowywać konkretnie do danego celu.
Najnowsze rozwiązania AI – takie jak GPT4 – idą o krok dalej i osiągają tzw. multimodalność. Oznacza to, że potrafią pracować nie tylko z tekstami, lecz także z obrazami i z dźwiękiem. Same modele bazowe – takie jak GPT, Llama lub Mistral – stanowią jednak często bazę do tworzenia przez firmy zewnętrzne innych aplikacji.
Czytaj też
Spór o odpowiedzialność twórców modeli
Jak się okazuje, to właśnie spór o modele podstawowe blokuje obecnie prace nad AI Act. Nie ma wątpliwości co do tego, że niezbędne jest uregulowanie statusu aplikacji, które korzystają z modeli podstawowych. Pytanie natomiast brzmi, jak dużą odpowiedzialnością powinni być obarczeni sami twórcy tychże sieci neuronowych.
Zarysowuje się tu jasny podział na dwie grupy. Pierwsza twierdzi, że sztuczna inteligencja stanowi zagrożenie dla bezpieczeństwa i należy ją jak najszybciej i jak najostrzej uregulować. To właśnie w tym duchu powstały pierwsze plany unijnych regulacji.
Zakładają one tzw. podejście wielopoziomowe (ang. tiered approach). Oznacza to, że nie tylko producenci końcowej aplikacji, wykorzystującej dany model podstawowy, ale i ludzie tworzący same te modele, mają być odpowiedzialni za jej bezpieczeństwo. Dlatego też Parlament Europejski proponuje m.in. aby modele te były zawsze testowane przez zewnętrznych ekspertów.
Czytaj też
Sprzeciw Francji i Niemiec
Jak można było już przeczytać na łamach CyberDefence24, stanowczo sprzeciwiają się temu Francja oraz Niemcy. Ostatnio dołączyły do nich także Włochy. Te trzy największe gospodarki UE twierdzą, że regulacjami powinny być obarczone przede wszystkim aplikacje wykorzystujące modele podstawowe.
W spisanym niedawno wspólnym dokumencie państwa te proponują, aby firmy zajmujące się modelami podstawowymi regulowały się same przez określanie odpowiednich kodeksów postępowania oraz przez publikowanie tzw. karty modelu (ang. model card) z informacjami na temat treningu sieci neuronowej czy wykorzystanych zbiorów danych.
Czytaj też
Nowa propozycja Komisji Europejskiej
W odpowiedzi na sprzeciw Francji, Niemiec i Włoch, Komisja Europejska przygotowała nową propozycję. KE wprowadziła nowe pojęcie – Sztucznej Inteligencji Ogólnego Przeznaczenia (ang. General Purpose AI, GPAI). Ta definicja jest bardzo podobna do tej opisującej modele podstawowe, o które toczy się spór.
Komisja Europejska skupia się na największych sieciach neuronowych i uznaje je za rozwiązania wysokiego ryzyka. Za metrykę wielkości modelu przyjęto liczbę operacji zmiennoprzecinkowych (ang. floating-point operations, FLOPS), potrzebną do wytrenowania danego modelu. Jako próg dużego modelu przyjęto 10 do potęgi 26 FLOPS. Wartość ta miałaby być regularnie aktualizowana.
Czytaj też
Co dalej z AI Act?
Projekt Komisji Europejskiej implementuje przynajmniej część z propozycji Francji, Niemiec i Włoch. Zakłada on chociażby wprowadzenie karty modelu, opisującej proces treningu, ewaluacji oraz opis wykorzystanych danych.
Co więcej, GPAI uznane za te o wysokim ryzyku miałyby obowiązek współpracy z Komisją Europejską w celu zidentyfikowania potencjalnych zagrożeń i sposobów na ich uniknięcie. Byłby na nie nałożony także wymóg bezzwłocznego powiadamiania KE i innych organów o wszelkich poważnych incydentach.
Czytaj też
Ważnym punktem jest wymóg oznaczania treści wygenerowanych przez AI „w sposób możliwy do odczytania przez maszyny”. Jest to jedno z rozwiązań, które firmy już wdrażają z własnej inicjatywy. Konieczność jasnego informowania o wykorzystaniu AI za pomocą odpowiednich etykiet ogłosił już zarówno YouTube, jak i TikTok.
Jak twierdzi magazyn „Time”, wskazane jest, aby do porozumienia doszło przed lutym 2024 roku. Później odbędą się wybory do Parlamentu Europejskiego, co może te prace opóźnić o kolejny rok.
Rozmowy wznowione – koniec sporu?
8 grudnia komisarz UE do spraw rynku wewnętrznego Thierry Breton poinformował na platformie X, że już dwa dni wcześniej ponownie rozpoczęły się rozmowy nad AI Act. Podkreślił przy tym, że negocjacje są prowadzone w „duchu konstruktywnym”.
Tego samego dnia, dwie godziny później, o wznowieniu rozmów trójstronnych w podobny sposób poinformowała wiceprzewodnicząca Komisji Europejskiej Věra Jourová.
Co zawarto w tymczasowym porozumieniu?
Jak donosi portal Euractiv w kwestii modeli bazowych osiągnięto tymczasowe porozumienie. Utrzymano w nim podejście wielopoziomowe, które proponowała Komisja Europejska.
Oznacza to, że producenci modeli bazowych będą musieli, w trosce o bezpieczeństwo, dzielić się m.in. podsumowaniem na danych na których trenowano model. Spocznie na nich także obowiązek zapewnienia, że treści generowane przez ten model będą możliwe do łatwego rozpoznania. Jednocześnie AI Act nie będzie w pełni obejmować modeli darmowych i z otwartego źródła. Zastosowanie nowego prawa ma się ograniczyć do kwestii związanych m.in. z prawami autorskimi.
Podkreślmy – na obecnym etapie mówimy o tymczasowym porozumieniu. Jaki ostatecznie kształt przyjmie AI Act, pozostaje niewiadomą.
Autor: Cezary Waligóra, wolontariusz, Stowarzyszenie Demagog
Absolwent informatyki na Politechnice Poznańskiej. Programista zajmujący się zastosowaniem uczenia maszynowego w sieciach LTE i 5G. Po godzinach fan sztucznej inteligencji, kognitywistyki, kina, chodzenia po górach i poznawania innych kultur.